|
|
|
|
|
NUMERO 207 |
|
|
|
|
|
|
|
Edition du 06 Septembre 2002
|
|
|
|
|
Edito
Le réchauffement du climat aura aussi de graves conséquences pour la France
Les résultats décevants du sommet de la terre de Johannesburg en matière de politique énergétique étaient malheureusement prévisibles face à l'intransigeance des Etats Unis qui refusent de changer leur mode de vie et n'assument pas leur responsabilité planétaire. La situation environnementale et climatique, comme l'a rappelé avec force le Président Chirac au cours de ce sommet de la terre, est pourtant très grave et peut entraîner des catastrophes aux conséquences incalculables si nous ne réagissons pas très vite. Dans la perspective de ce sombre scénario il faut savoir que notre pays ne sera pas épargné. L'impact moyen pour la France d'ici 2100 du changement climatique causé par les émissions de gaz à effet de serre. devrait être de deux petits degrés selon le dernier rapport de l'Office parlementaire des choix scientifiques et technologiques ( voir rapport intégral http://www.senat.fr/rap/r01-224-1/r01-224-1.html). Cet impact peut sembler minime mais c'est oublier qu'en matière de climat les petites causes produisent de grands effets. Deux degrés et ce sont 25 à 35 jours de neige en moins à 2.500 m dans les Alpes et les Pyrénées, 15% à 20% de la durée d'enneigement. Les stations de moyenne montagne (1.500 mètres) auront 30 à 60 jours d'enneigement en moins. Cette hausse apparemment minime de deux degrés aura aussi un impact direct sur le fonctionnement de l'organisme humain. Le professeur Jean-Pierre Besancenot du laboratoire climat et santé de l'Université de Dijon estime que la mortalité en hiver reculerait de 5 à 7% vers le milieu du siècle, mais que les décès pourraient augmenter de 12 à 18% en été. Les effets des vagues de chaleur seront accentués par la pollution atmosphérique. Les allergies pourraient se multiplier du fait de la remontée vers le nord d'espèces allergisantes. Le temps chaud et ensoleillé libère davantage de pollens. La chaleur pourrait aussi favoriser la propagation de maladies transportées par des moustiques, comme les maladies à tiques (encéphalite, babébioses, fièvre boutonneuse...). Le virus du Nil occidental déjà présent en Camargue chez des chevaux pourrait se manifester plus fréquemment. La France, avec 6.959 km de côtes, sera sensible à la montée prévisible du niveau de la mer (40 à 98 cm pour le XXIe siècle). La hausse de température va aussi s'accompagner d'une modification du régime des pluies : sécheresse au sud, pluies et inondations au nord. Le rapport, qui reprend pour l'essentiel les données du GIEC (groupe d'experts sur le climat réuni sous l'égide des Nations Unies) fixe trois grands rendez-vous : 2025, 2050 et 2100. D'ici 2025, des décisions clés doivent être prises, soulignent les parlementaires : renouvellement ou non du parc de réacteurs des centrales nucléaires (qui n'émettent pas de gaz à effet de serre mais posent le problème des déchets radioactifs); essor des énergies renouvelables, doublement du fret ferroviaire. Une molécule de carbone émise dans l'atmosphère y reste environ 120 ans : les effets de nos émissions d'aujourd'hui auront des effets explosifs en 2100. Il faut savoir que 4 degrés de plus dans la région du Labrador (Canada) risquent de déplacer le Gulf Stream qui donne à l'Europe son climat tempéré. Le rapport formule une centaine de recommandations, sans oublier l'individu dans sa vie quotidienne. Ainsi, les transports sont le premier émetteur de gaz à effet de serre en France et les progrès technologiques (moteurs, carburants) ne suffiront pas à limiter la croissance des émissions, relèvent les parlementaires. Il faut maîtriser la croissance du trafic (+50 % d'ici 2020), "ne prendre l'avion qu'à bon escient", "voyager en train, tramway, métro", "renoncer à se déplacer en automobile sur des trajets encombrés ou de petits trajets". En 2025, les effets du changement climatique seront visibles pour l'homme, mais "l'impact sera sans doute irréversible ou difficilement réversible", soulignent les parlementaires. "Il restera à déplorer qu'une action n'ait pas été entamée bien des années plus tôt alors que l'alerte avait été donnée". Donnant malheureusement raison à ce rapport du Sénat et à ses prévisions alarmistes, les appels internationaux contre le réchauffement climatique se sont multipliés au cours de ces dernières semaines en réaction aux intempéries catastrophiques qui frappent l'Europe mais aussi l'Asie : inondations exceptionnelles en Europe centrale et en Chine et sécheresse dramatique en Inde. Le directeur du Programme des Nations Unies pour l'environnement (PNUE), Klaus Toepfer, a appelé les pays industriels à assumer leur part de responsabilité dans ces intempéries catastrophiques. "Nous devons massivement lutter contre ce phénomène, et c'est avant tout le devoir des pays industrialisés", a lancé M. Toepfer à DeutschlandRadio, estimant qu'il n'y a "plus aucun doute" que "les hommes y ont leur part de responsabilité". Alors que l'Afrique, qui représente 14% de la population mondiale, n'est responsable que de 3,2% des émissions de gaz carbonique (CO2) sur la planète, "c'est justement là-bas que les conséquences du changement climatique sont très, très sensibles", a relevé le directeur du PNUE. Pour lutter contre cette évolution, il faut faire des économies drastiques d'énergie et développer les énergies renouvelables en coopération avec les pays en voie de développement (PVD), a estimé M. Toepfer, "afin d'éviter que nos efforts de réduction d'émissions ne soient annihilés par une augmentation parallèle dans les PVD". L'Union européenne s'est engagée, en décidant de ratifier le Protocole de Kyoto, à globalement réduire de 8% les émissions de CO2 et autres gaz à effet de serre, considérées comme les principales responsables du changement climatique, pour 2008-2012 par rapport aux niveaux de 1990. Mais les Etats-Unis, responsables de 36,1% des émissions de référence, refusent de ratifier le protocole de Kyoto. Sur ce point capital il convient de souligner l'isolement grandissant des USA et aussi l'avancée significative que constitue le ralliement, annoncé au sommet de Johannesburg du Canada et de la Russie au protocole de Kyoto. Ce ralliement décisif va enfin permettre la mise en oeuvre effective de ces accords et va rendre la position américaine de plus en plus intenable. Face à ces prévisions très sombres, mais hélas de plus en plus étayées scientifiquement, et aux conséquences désastreuses qui pourrait en résulter pour notre pays comme pour le reste du monde, nous devons tous prendre nos responsabilités et nous sommes confrontés à des choix fondamentaux de société que nous ne pouvons plus repousser. Nous devons informer de manière honnête et objective nos concitoyens des risques qui nous attendent si nous ne changeons pas en profondeur nos habitudes et notre mode de vie dans les années à venir. Notre pays doit se préparer à une mutation de grande ampleur, qui n'ira pas sans difficultés et sans résistance mais qui est indispensable. Face à des enjeux si essentiels il faut absolument dépasser les conceptions idéologiques réductrices et dogmatiques qui animent encore trop souvent le discours écologiste et ouvrir un grand débat démocratique qui débouche sur des choix politiques courageux et audacieux mais réalistes et cohérents sur les plans économiques et scientifiques. Il faudra notamment avoir le courage d'expliquer à nos concitoyens, comme l'ont déjà fait la Suède et la Finlande et, tout récemment la Suisse, que si l'on veut réduire sensiblement les émissions de gaz à effet de serre, qui entraîne le réchauffement accéléré de la planète, tout en assurant un production suffisante d'énergie à un coût économiquement et socialement acceptable, le recours à l'énergie nucléaire est inévitable pendant encore plusieurs décennies. Ce constat objectif n'est nullement contradictoire avec le développement des énergies renouvelables qui doit être poursuivi et amplifié sur le long terme mais en sachant que ces énergies renouvelables ne pourront pas assurer à elles seules la majeur partie de nos besoins énergétiques avant plusieurs décennies : sur ce point il suffit de rappeler que l'objectif de l'ONU, pourtant considéré comme fort ambitieux, ne vise qu'à porter à 15% d'ici 2010 la proportion d'énergies renouvelables, comme l'éolien et le solaire, dans la consommation mondiale d'énergie. Face aux dérèglements climatiques entraînés par le réchauffement de la terre Il est également plus que jamais nécessaire de préparer l'avenir à long terme et de consentir au niveau européen et international un effort de recherche accru pour mettre au point la fusion thermonucléaire contrôlée qui pourra donner à l'humanité à partir du milieu du XXIe siècle une source d'énergie propre et quasi-inépuisable. Il convient aussi de mieux explorer les potentialités considérables des mers en matière d'énergie, qu'il s'agisse de l'énergie marémotrice ou de l'exploitation de l'amplitude thermique entre surface et profondeur des océans. Il faut aussi observer avec soin certaines expériences étrangères, comme le projet de tours solaires qui vient d'être annoncé par le Gouvernement australien. (voir article dans la rubrique énergie de ce numéro). L'Agence internationale de l'énergie vient de rappeler que 1,4 milliard de personnes dans le monde seront toujours privées d'électricité en 2030 à moins qu'interviennent des changements radicaux d'orientations en matière de politique énergétique (voir article dans rubrique énergie). Nous devons donc tout mettre en oeuvre pour qu'un tel scénario ne se réalise pas. Sur le plan législatif il faut d'urgence préparer deux grandes lois d'orientation, l'une pour l'énergie et l'autre pour les transports. Ces deux lois devront définir le cadre général des politiques en matière d'énergie et de transports pour les 10 prochaines années et fixer des objectifs précis et volontaires de développement d'utilisation des énergies et moyens de transports les plus propres. De manière complémentaire de puissants moyens financiers et fiscaux ( prêts à taux réduits, crédit d'impôt, amortissement rapide et déductibilité fiscale étendue) devront être mis en place pour favoriser l'essor, au niveau des foyers, comme au niveau des entreprises, des énergie propres, limiter les déplacements inutiles grâce aux technologies de l'information et imaginer de nouvelles formes de transports collectifs plus attractifs et plus souples. Il serait également souhaitable que les choix majeurs en matière d' énergie et de transports soient soumis à référendum afin de leur conférer une force démocratique accrue et de rendre leur application irréversible. Enfin il faut qu'une volonté politique sans faille s'exprime dans la durée au niveau national et européen pour que tous les grands pays consommateurs d'énergie, et notamment les Etats Unis, appliquent et respectent les objectifs prévus par les accords de Kyoto. C'est en dépassant les approches idéologiques et dogmatiques et en faisant preuve d'imagination et d'une volonté civique et politique réelle que nous pourrons demain opérer notre nécessaire mutation énergétique qui devra concilier respect de l'environnement, contraintes économiques et acceptation sociale par les populations. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Aux Etats Unis, La National Science Foundation a commencé à installer le matériel nécessaire au TeraGrid, un superordinateur à l'échelle du pays, qui devrait être à la puissance de calcul ce qu'Internet est aux documents. Dans un premier temps, des ensembles de micro-ordinateurs sophistiqués seront aménagés sur quatre sites : le National Centre for Supercomputing Applications (NCSA) de l'université de l'Illinois, à Urbana-Champaign, le Laboratoire national de recherche énergétique du ministère de l'Energie, situé à Argonne, près de Chicago, le California Institute of Technology, à Pasadena, en Californie, et le Centre de superordinateurs de l'université de Californie à San Diego. Puis, d'ici au début de l'année prochaine, ces quatre ensembles seront si bien reliés entre eux qu'ils fonctionneront comme une seule entité. Le TeraGrid est un très bon exemple de ce que l'on appelle la “grille de calcul” - l'intégration massive de systèmes informatiques, destinée à offrir des performances qui autrement ne pourraient être atteintes par de simples ordinateurs. Cette intégration sera si discrète que l'utilisateur n'aura plus conscience d'être sur un réseau. Ses partisans espèrent que cela marquera le début de l'ère de la grille accessible à tous. Depuis un ou deux ans, des dizaines de projets similaires ont été annoncés en Europe, en Asie et aux Etats-Unis, et ce n'est pas terminé. Les concepteurs de la grille définissent actuellement une nouvelle norme, le Globus Toolkit, qui permettra aux projets encore balbutiants d'appartenir à un réseau mondial à la puissance de calcul inépuisable. “C'est une véritable révolution”, estime Larry Smarr, le directeur de l'Institut californien des technologies de l'information et de la communication et du calcul en réseau. “Tout d'abord, nous avons tendu les câbles et relié tous les ordinateurs. Puis, avec le Net, nous avons commencé à lier tous les documents en ligne”, explique-t-il. Il ne reste plus aujourd'hui qu'à connecter tout le reste, conclut-il. Ce qui signifie que les utilisateurs commenceront à percevoir Internet comme un univers informatique infini. Des logiciels d'application aux bases de données en passant par les données vidéo et audio, tout prendra la forme de services présents dans le cyberespace, et ces derniers seront en interaction constante pour effectuer les différentes tâches avec une grande facilité. Une fois connecté à la grille, un ordinateur de bureau pourra acquérir la puissance phénoménale de l'ensemble des ordinateurs connectés. Selon M. Smarr, “nous assistons à l'émergence d'une nouvelle infrastructure sur laquelle la science tout d'abord, puis l'économie tout entière seront bâties”. Afin de parvenir à l'universalité pour la grille, la communauté américaine des utilisateurs de cette technologie s'est associée à celles d'Europe et d'Asie pour fonder le Global Grid Forum, une organisation calquée sur le modèle de l'Internet Engineering Task Force (IETF), le comité chargé de la standardisation sur le Net. Ce forum a pour mission de garantir une parfaite interaction de Globus et des autres protocoles de grille comme Legion . “Si chaque ordinateur utilise des méthodes standard pour gérer l'authentification et l'autorisation, décrire les capacités de ressources et négocier l'accès aux ressources, avance M. Foster, ce sera une avancée considérable.” L'industrie informatique semble désormais prendre très au sérieux cette technologie, le meilleur exemple étant IBM. En août 2001, alors qu'elle obtenait le contrat pour la mise au point de grilles nationales au Royaume-Uni et aux Pays-Bas, ainsi que de TeraGrid aux Etats-Unis, l'entreprise américaine annonçait qu'elle allait adapter nombre de ses réseaux de serveurs aux grilles. Huit autres fabricants d'ordinateurs - Compaq, Cray, Silicon Graphics, Sun Microsystems et Veridian aux Etats-Unis, ainsi que les Japonais Fujitsu, Hitachi et NEC - ont annoncé, en novembre dernier, qu'ils allaient équiper leurs machines de Globus Toolkit, faisant ainsi office de plate-forme standard pour le calcul distribué. Microsoft aurait signé un contrat avec Argonne afin de traduire Globus pour son système d'exploitation Windows XP. Dans le futur tel que l'imagine M. Smarr, des grilles de toutes tailles seront interconnectées. Les “supernoeuds” comme TeraGrid rassembleront des ensembles de superordinateurs connectés entre eux, opérant à l'échelle nationale ou internationale. Il n'y aura qu'à connecter son ordinateur personnel à la grille afin d'exploiter la puissance requise. Imaginons, par exemple, que les membres d'un mouvement citoyen soient inquiets face à une proposition de projet de développement. Ils pourront se servir de la grille pour réaliser les mêmes simulations que celles utilisées par les développeurs du projet. Ils pourront ainsi observer les effets du projet dans tous les domaines, de la nappe phréatique à la circulation, en passant par l'emploi. En utilisant des technologies de télé-immersion grâce à la grille, les citoyens pourront même déambuler dans une représentation virtuelle du projet et ainsi se faire une idée réaliste des changements opérés.Grâce à la révolution de la technologie sans fil, les “micronoeuds” seront partout. “En raison de la miniaturisation des composants, les terminaux que sont les capteurs, les mécanismes d'accès et les processeurs intégrés se compteront par milliards. Ils seront partout, ils surveilleront les ponts, l'environnement - à la fin, même nos corps en seront pourvus, ils contrôleront notre activité cardiaque”, s'enthousiasme M. Smarr. C'est la raison pour laquelle, insiste-t-il, nous devons construire dès à présent une base solide pour la grille, assurer la sécurité et tout le reste dès le début. “Nous ne pouvons pas réagir après coup, ajoute-t-il. La planète est en train de fonder l'infrastructure sur laquelle le reste du XXIe siècle reposera.” Technologyn Review : http://www.technologyreview.com/articles/waldrop0502.asp
|
|
|
|
|
|
|
|
A Cardiff, au pays de Galles, une centaine de foyers chanceux ont déjà un aperçu gratuit du futur. Ils sont les premiers au monde à profiter d'un nouveau mode de connexion sans fil à très haut débit, la "mesh radio" système maillé], qui leur permet de voir des vidéos à la carte, de participer à des vidéoconférences ou de télécharger à la vitesse de 4 mégabits par seconde - ce qui est bien plus rapide que les systèmes de transmission à large bande comme l'ADSL ou les modems câbles. Autre point positif, selon ses créateurs, le système maillé ne ralentit pas en cas de saturation. Généralement, la ligne ADSL dont peut disposer un particulier permet de transmettre des données à la vitesse maximale de 500 kilobits par seconde. Mais la largeur de la bande passante dont disposent les utilisateurs est beaucoup plus réduite si plusieurs personnes sont en ligne en même temps dans le quartier. Les modems câbles posent le même problème. Or le taux de couverture du système maillé frôle les 100 % puisque chaque foyer devient une ministation de base. Sur le toit, une installation imposante comprend quatre antennes directionnelles qui s'alignent automatiquement sur les antennes des autres habitations. Chaque noeud peut ainsi communiquer avec plusieurs autres en même temps. Si le contact est perdu, l'antenne s'aligne directement sur une autre antenne. Un centre de contrôle du réseau - ou “noeud maître” - est relié à une ligne interurbaine de fibre optique connectée au Net et aux sources d'images. Les informations qui circulent sur le réseau sont labellisées de manière que chaque foyer ait sa propre connexion privée à la ligne interurbaine. Le système testé à Cardiff offre une puissance de 28 gigahertz. Les futurs systèmes atteindront 40 gigahertz. Jusqu'à 600 abonnés par kilomètre carré pourraient bénéficier de la connexion à 4 mégabits par seconde. D'autres essais sont prévus aux Etats-Unis, en Espagne et en Allemagne. Courrier international : [http://www.courrierinternational.com/mag/couv1.htm
|
|
|
|
|
|
|
|
Pour elle, les technologies sont très largement le résultat des efforts de la recherche. Elle propose de présenter « La vison globale sur la politique des TIC » qui sera celle du gouvernement pendant cinq ans. Sous la responsabilité du Premier ministre, elle se doit de proposer avec chacun des ministères concernés un ensemble cohérent et dynamisant. Sa mise en place est en cours de définition et la politique sera présentée au conseil des Ministres en octobre prochain et devra répondre au thème annoncé par le Premier Ministre : « Une France créative, c'est une France qui mise sur l'innovation ». C'est pourquoi elle souhaite placer la France au coeur même de la société de l'information. Elle propose en premier lieu une méthodologie du travail, qui consiste à mettre fin à un système d'affrontement Etat-citoyen. Le dialogue sera au coeur du système gouvernemental, dialogue avec les entreprises, les collectivités territoriales. « L'Internet ne se décrète pas d'en haut », affirme Claudie Haigneré qui propose d'encourager et mieux faire connaître les succès locaux. Il faut aussi les soutenir dans une logique de proximité, ils doivent être relayés dans les territoires pour en assurer la diffusion. Elle souhaite faire un travail ciblé, avec des échéances courtes, et donc de ne pas faire des grands plans. La dimension de formation est importante pour assurer que l'action décidée pourra être mise en oeuvre par des acteurs ciblés. La Ministre insiste sur la nécessité de promouvoir un langage de vérité sur la technologie et donc de ne verser ni dans le rêve, ni dans le pessimisme. Il s'agit de montrer ce que ces technologies apportent à chacun d'entre nous et de les rendre utilisables par tous. Elle cite la révolution des SMS, la révolution liée à l'internet dans le travail. Elle rappelle qu'Internet n'est pas une fin en soi mais un point d'accès aux réseaux. Elle propose de mettre « en valeur des exemples de nouvelles technologies utilisées tous les jours par nos concitoyens. Internet véhicule des exigences de civilité. Il faut donner confiance aux citoyens dans leurs usages. La généralisation de l'accès à Internet est une réalité. Les 7,1 millions d'abonnés actifs ne bénéficient pas de débit correct. Ainsi, 75% des français estiment que tous n'ont pas la même chance en terme d'accès. Il s'agit de conduire la France dans une situation de concurrence réelle sur l'accès à Internet. Une consultation sur les droits du contenu est lancée par la direction « ddmedia ». Le principe énoncé est clair : l'argent public ne saurait être engagé dans des actions commerciales à risque. Le gouvernement souhaite continuer la politique lancée par le gouvernement précédent, car elle développe les usages, mais elle doit être améliorée. C'est en particulier le cas des points d'accès publics. Le réseau à haut débit pour l'enseignement et la recherche, RENATER, est attribué à Telecom Developpement et doit se connecter avec le réseau européen GEANT. Autre usage, la santé et le domaine de l'art doivent bénéficier au mieux des nouvelles technologies. Claudie Haignere rappelle les enjeux de la recherche et de l'innovation. A cette occasion, il faut souligner que des normes mondiales sont issues de laboratoire de recherche français. Il faut en avoir la fierté et se préparer à renouveler ces succès. La recherche et l'innovation nourrissent les technologies et se nourrissent d'elles-même. Elle propose de porter une attention particulière au développement dans ipV6, qui permettra un nombre croissant de machines connectées et dans les technologies émergentes de distribution locale d'Internet, comme wifi, courant porteur en ligne. Elle renforcera les efforts budgétaires pour les développements des micro et nano technologies. Enfin, elle décide d'encourager les laboratoires de recherche qui travaillent sur les aspects sociétaux et cognitifs de l'Internet et des nouvelles technologies, l'objectif est de créer un réseau des laboratoires des usages des nouvelles technologies, qui permettent aux entreprises d'évaluer plus aisément les modes d'appropriation d'un produit de haute technologie. Elle insiste sur la mise en avant des usages dans un présent visible, ambitieux et performant. Comparatel : http://www.comparatel.fr/actu/?
|
|
|
|
|
|
|
|
Toshiba et NEC ont annoncé lundi la mise au point d'un nouveau format de DVD (Digital Versatile Disc) moins cher et pouvant contenir plus de données mais qui sera incompatible avec la norme développée par un consortium mené par Sony. Toshiba a précisé que ce format de nouvelle génération, qui serait disponible avant la fin de l'année, utilisait un flash laser bleu au lieu d'une lumière rouge pour décrypter les informations codées sur le disque. Selon une porte-parole de Toshiba, cette méthode facilitera la passage des DVD actuels aux futurs disques optiques "bleus". "Quand un nouvel appareil de lecture sort, ce que les consommateurs veulent, c'est de pouvoir lire les DVD qu'ils ont déjà", a expliqué Midori Suzuki. "Du point de vue du fabricant, notre format leur permettra d'utiliser beaucoup de leurs installations existantes, ce qui réduira d'autant les coûts de fabrication", a-t-elle ajouté. Le format Toshiba-NEC restera toutefois incompatible avec la technologie baptisée "Blu-Ray" et présentée en février dernier par Sony, Matsushita et sept autres entreprises dont Thomson Multimedia. Toshiba était l'un des rares géants japonais de l'électronique à ne pas s'associer au projet de Sony, chez qui on réitérait lundi matin l'attachement au "Blu Ray". Interrogé sur l'éventuelle menace que représentait la norme Toshiba-NEC, un porte-parole s'est refusé à tout commentaire. Les fabricants de lecteurs DVD souffrent de la fragmentation des formats "red laser". Même si les ventes de ces derniers mois sont assez soutenues, les voix s'élèvent pour que les mêmes erreurs ne se répètent pas avant l'avènement de la génération bleue. Toshiba a minimisé les inquiétudes sur une éventuelle guerre des formats en affirmant que la norme "Blu-Ray" était, à long terme, la prochaine étape logique et précisé qu'il travaillait également sur cette norme. La technologie "Blu Ray" multiplie par cinq la capacité de stockage de données sur un seul côté du disque optique pour la porter à 23,3 gigaoctets, soit assez pour stocker en haute définition un film de deux heures. Les disques en lumière rouge contiennent en moyenne 4,7 gigaoctets. Reuters : http://fr.news.yahoo.com/020826/85/2q66t.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Un système informatique testé à Taiwan permettrait de prévenir les tremblements de terre 25 secondes avant le choc. Certes cette courte durée peut paraître dérisoire, mais elle permet de stopper les trains, de fermer les vannes du gaz de ville et d'indiquer aux professions à risque comme les chirurgiens de stopper leur travail. D'après Ta-Liang Teng du centre d'étude des tremblements de terre de l'Université de Californie du Sud (SCEC), ce système pourrait fonctionner comme une sirène d'alerte. Jusqu'à présent les pays ou les régions à risque comme la Californie et le Japon, ont des systèmes de détection qui permettent de prévenir l'arrivée d'un tremblement de terre à quelques secondes près. Le manque de matériel entraîne une réaction assez lente des systèmes informatiques, qui ne permet pas d'agir rapidement pour éviter les catastrophes. Les détecteurs actuels ne prennent en compte que les grosses secousses et n'ont pas le temps d'analyser les plus nombreuses de faible amplitude. Devant la surcharge d'informations, le Pr. Ta-Liang Teng et son collègue Yih-Min Wu ont mis en place à Taiwan, un des plus grands centres de sismographie dans le monde, un système informatique qui permet de sélectionner automatiquement des douzaines de données provenant de sismographes situés dans une zone de 60 km autour de l'épicentre du tremblement de terre. A partir de ces seules données, ils ont réussi à réduire le temps d'analyse à moins de 40 secondes. C'est ce que révèle l'article paru dans le Bulletin of the Seismological Society of America. Avec cette méthode, les deux chercheurs ont analysé plus de 54 tremblements de terre entre décembre 2000 et juin 2001, et ils ont ainsi pu connaître l'évolution du phénomène entre 14 et 41 secondes avant l'arrivée des secousses principales. Ta-Liang Teng espère mettre en service son système informatique d'ici la fin 2003. Science&Avenir : http://permanent.sciencesetavenir.com/sci_20020814.OBS8803.html
|
|
|
|
|
|
|
|
Dans ce livre paru en 1986, K. Eric Drexler (chercheur MIT) poursuit l'idée du physicien Richard Feynman qui, lors d'une conférence donnée au Caltech Institute en décembre 1959, formulait le concept d'une machine construite atome par atome à l'aide d'autres machines. Pour Feynman, et dès cette époque, aucun principe physique ne s'opposait à cette idée, les seules difficultés de réalisation étant selon lui d'ordre pratique. Drexler décrit ainsi dans son livre une révolution technologique basée sur la maîtrise de la matière à l'échelle nanométrique. Il évoque en particulier la possibilité de reproduire et de contrôler les processus biochimiques qui construisent nos molécules. Il anticipe la création de nanomachines voyageant dans l'organisme afin par exemple de régénérer ici des tissus et réparer des cellules, et là d'y détruire des cellules cancéreuses... Il prévoit le développement d'"assembleurs" capables de se copier eux même et de créer n'importe quelle nano-structure, y compris d'autres machines. Nous serons finalement capables de recréer pratiquement toute chose. Drexler décrit ainsi comment la manipulation de la matière au niveau de l'atome peut créer un futur d'abondance utopique où tout pourrait être rendu meilleur marché et où presque tous les problèmes physiques imaginables pourraient être résolus à l'aide de la nanotechnologie et de l'intelligence artificielle. Le livre évoque aussi promesses et périls inhérents à la maîtrise des nanotechnologies. Automates-intelligents : http://www.automatesintelligents.com Les engins créateurs d' Eric Drexler (version française de 299 pages) http://www.foresight.org/EOC/FrenchEOC.rtf
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Intel s'apprête à dévoiler une nouvelle technologie de fabrication des microprocesseurs, selon le Wall Street Journal (WSJ). L'initiative entre dans le cadre de l'investissement de 12,5 milliards de dollars sur deux ans annoncé par le premier fabricant mondial de semi-conducteurs, qui vise à améliorer les procédés de fabrication et à produire à la chaîne les plus petits des transistors. Intel devrait notamment livrer certains détails essentiels de son procédé "90 nanomètres", méthode déposée comprenant les composants, l'équipement et les étapes de fabrication de ses nouveaux processeurs de taille microscopique, précise le WSJ. Ce procédé permet d'ores et déjà la fabrication de transistors dont les composants essentiels ne dépassent pas 50 nanomètres, soit 2.000 fois moins que l'épaisseur d'un cheveu (un nanomètre équivaut à un milliardième de mètre). Réduire la dimension des circuits imprimés revient à améliorer leurs performances et à en réduire les coûts de production. Intel devrait en outre annoncer son intention de mettre en oeuvre une technologie permettant d'augmenter la distance entre les atomes dans les galettes de silicone (wafers), permettant au flux électrique de circuler plus rapidement, ce qui se traduit par des performances informatiques accrues, poursuit le WSJ. Si International Business Machine semble avoir devancé ses concurrents en ce qui concerne l'adoption de cette technologie, Intel espère devenir le premier constructeur à la mettre en pratique à grande échelle. Pour renforcer ses positions sur le marché des télécommunications, la firme s'efforce par ailleurs de mettre au point un procédé permettant de rassembler dans un même processeur différents éléments tels que mémoire et technologie sans fil. Intel : http://www.intel.com/home/scenes/stories/euv_lithography.htm
|
|
|
|
|
|
|
|
Selon la dernière étude de l''Agence internationale de l'énergie (AIE) 1,4 milliard de personnes dans le monde seront privées d'électricité en 2030 si aucune politique radicale n'est menée dans ce domaine. La situation "n'est pas tenable", a déclaré le directeur exécutif de l'AIE Robert Priddle lors d'une conférence de presse à Paris, ajoutant que "le problème majeur c'est de mobiliser les investissements nécessaires" notamment privés. "En l'absence d'un approvisionnement énergétique adéquat à des prix abordables, il est impossible de mener une activité économique productive et d'améliorer la santé et l'éducation. Le résultat : les pauvres resteront pauvres", a-t-il dit en présentant une étude sur "énergie et pauvreté", à quelques jours du sommet de la Terre à Johannesburg. "Aujourd'hui, 1,6 milliard d'hommes n'ont pas accès à l'électricité et 2,4 mds utilisent des formes primitives de biomasse pour cuisiner et se chauffer. En l'absence de nouvelles politiques radicales, 1,4 md seront encore privés d'électricité dans 30 ans et 2,6 milliards dépendront toujours de la biomasse", a-t-il souligné. La biomasse primitive (bois, déchets agricoles et fumier), utilisée dans les pays en développement pour se chauffer et cuisiner, a des conséquences graves en termes de santé et environnement. Selon les conclusions de l'étude, quatre personnes sur cinq privées d'électricité vivent en zone rurale dans les pays en voie de développement. Elles sont concentrées dans l'Afrique subsaharienne et en Asie du sud et du sud-est. Mais cette donnée change, car dans les trente prochaines années, la croissance démographique se produira dans les grandes métropoles du tiers-monde. Le chef de l'AIE, qui a précisé que l'objectif de l'étude est de comprendre "le lien entre la pauvreté globale et l'utilisation de l'énergie, et de favoriser ainsi de meilleurs choix dans la recherche de solutions", explique qu'en fonction des zones rurales ou urbaines, les solutions énergétiques diffèrent. "Les communautés rurales peuvent être alimentées en électricité à travers des énergies renouvelables (éolienne, hydraulique ou biomasse propre), mais les populations urbaines ont besoin de réseaux plus larges à base d'énergie fossile ou nucléaire", a-t-il dit. Les investissements pour la production d'électricité font défaut aussi bien dans les zones rurales qu'urbaines, a affirmé M. Priddle, ajoutant que les gouvernements sont appelés à créer les conditions pour encourager le secteur privé à investir dans ce secteur. Pour la seule production électrique - sans compter le transport et la distribution d'électricité -, les pays en développement ont besoin de 2.600 milliards de dollars d'investissement sur les 30 prochaines années, le double de ce qu'ils ont dépensé les 30 dernières années. AIE : http://www.iea.org/new/releases/2002/poverty.htm AIE : http://www.worldenergyoutlook.org/weo/pubs/weo2002/energypoverty.pdf
|
|
|
|
|
|
|
|
Pas cher et non-polluant, le "frigo solaire" va améliorer le quotidien des deux milliards d'habitants les plus démunis de la planète, espère son jeune inventeur sud-africain, Bradley Matthews. Cet étudiant de 18 ans expose actuellement son prototype à la Foire de jeunes scientifiques en faveur d'une utilisation efficace et économe de l'énergie, en marge du Sommet de la Terre de Johannesburg, dans l'espoir des séduire des investisseurs. "J'ai créé un nouveau système de réfrigération qui représente un retour aux sources grâce à l'énergie solaire. C'est pas cher, abordable pour les masses les plus pauvres, non-polluant et sans électricité", explique Bradley. Il lui a fallu trois ans de recherche pour mettre au point ce réfrigérateur de la la taille d'une grande glacière de camping et doté de panneaux solaires, qu'il rêve de vendre aux paysans d'Afrique et d'Asie pour pas plus de 50 euros. Selon son inventeur, le "frigo solaire" offre toutes sortes de perspectives, notamment humanitaires: "Il réduit le gaspillage de nourriture, peut soulager des villages de la famine, maintenir au frais des médicaments dans des zones reculées, être embarqué sur un bateau et éviter la surchauffe d'appareils de télécommunications". AFP : http://fr.news.yahoo.com/020826/202/2q6oo.html
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le nuage de pollution, épais de trois kilomètres, qui flotte au-dessus de l'Asie du Sud modifie les conditions climatiques, provoquant des maladies, mettant en danger l'agriculture et la croissance économique de la région, affirme l'étude scientifique la plus importante effectuée sur le phénomène. Les chercheurs qui ont travaillé dans le cadre d'une étude financée par les Nations unies estiment que le "Nuage brun d'Asie" -un mélange de cendre, de suie, d'acides et d'autres particules- résulte aussi bien de polluants comme les fourneaux à bois, les feux pour la cuisine et la déforestation, que de l'industrie. "Quant on pense à la pollution atmosphérique, beaucoup de personnes évoquent l'industrie et les combustibles fossiles comme seuls responsables", a expliqué lors d'une conférence de presse à Londres le coauteur de l'étude Paul Crutzen, un scientifique de l'Institut Max Planck pour la chimie, situé à Mayence (Allemagne). Selon lui, la combustion de la biomasse, tels que les feux de forêt et les incendies de végétation pour défricher les terres ou pour se chauffer constitue un facteur important. Plus de 200 scientifiques ont participé à l'étude supervisée par le programme Environnement de l'ONU. Ils ont utilisé les données communiquées par les bateaux, les avions et les satellites pour étudier le nuage asiatique entre 1995 et 2000. Les scientifiques estiment que nouvelles recherches sont nécessaires mais certaines tendances apparaissent clairement. Les maladies respiratoires semblent augmenter en Asie du Sud, très peuplée. Une étude suggère que pas moins de 500.000 morts prématurées par an en Inde sont causées par la pollution de l'air due aux fourneaux et les feux de cuisine. Le nuage de pollution provoqué entre autres par les feux de forêts, les voitures, les usines et l'incinération des déchets diminue la quantité de rayons solaires touchant la terre et les océans de 10 à 15%. Cela a pour effet de refroidir la terre et l'eau, tout en réchauffant l'atmosphère. Les pluies de la mousson dans la région ont été touchées par le phénomène, entraînant plus de pluies et d'inondations dans certaines zones (Bangladesh, Népal et Nord-Est de l'Inde) alors qu'il a moins plu au Pakistan et dans le Nord-Ouest de l'Inde. Le "nuage brun" de pollution en suspension au-dessus de l'Asie risque d'asphyxier l'économie indienne, très dépendante de l'agriculture, à moins que le gouvernement ne prenne des mesures pour combattre la pollution, a averti mercredi un spécialiste de l'environnement. Le halo, baptisé "nuage brun d'Asie", étendu sur une zone équivalente à sept fois l'Inde, nuit à l'agriculture, modifie le cycle des pluies et met en danger les populations, selon un récent rapport du Programme pour l'environnement des Nations unies (PNUE). "Nous nous attendons à un impact dévastateur sur l'économie, si les résultats des études se confirment. Le moment est venu pour le gouvernement de prendre conscience que des mesures efficaces sont nécessaires", a affirmé à l'AFP Sunita Narain, directrice du Centre des sciences et de l'environnement de New Delhi. Selon Mme Narain, des actions concertées devraient aider à faire disparaître le halo, qui doit être traité comme un "gros nuage de pollution". Le nuage est formé d'un "cocktail grandissant de suie, de particules en suspension et d'autres polluants", a expliqué le PNUE. "Ces aérosols ont une durée de vie de six à huit semaines", souligne Mme Narain. "La bonne nouvelle est que si vous ne les générez pas, le nuage va disparaître". Le rapport du PNUE, conclusion d'une étude menée depuis 1995, indique que le nuage réduit de 10 à 15 pour cent la luminosité à la surface de la terre. Se fondant sur d'autres études, les experts rappellent que 10 pour cent de réduction d'énergie solaire sur la région des océans réduit l'évaporation de l'humidité liée directement aux pluies d'été.Les conséquences sur l'agriculture pourraient se faire sentir dès à présent, en réduisant par exemple de 10 pour cent les récoltes de riz en Inde. Sunita Narain préconise notamment une politique efficace en matière de transports publics, soulignant que des mesures anti-pollution ont été prises depuis quatre ou cinq ans dans la capitale, New Delhi, mais pas dans les autres centres urbains. A New Delhi, les bus, taxis et rickshaws circulent désormais au gaz, le taux de benzène a été réduit dans l'essence et les anciens véhicules de transport public ont été mis au rebut. "Nous avons d'énormes centrales électriques en projet et nous devons nous assurer que nous investissons seulement dans les technologies les plus performantes", ajoute Mme Narain. "La lumière du soleil et les pluies sont les deux facteurs les plus importants de notre économie, tant que nous ne pouvons pas nous convertir à un système industrialisé non dépendant du climat," explique la scientifique. Mme Narain juge prématuré de dire que la sécheresse qui sévit en Inde cet été est liée au "nuage brun". Des scientifiques indiens affirment cependant qu'il existe actuellement des modifications perceptibles du schéma climatique dans le pays, les régions de l'ouest et du nord-ouest devenant plus sèches, celles de l'est et du sud plus humides. Les experts prévoient d'ores et déjà que cette sécheresse aura un impact négatif sur la croissance économique de l'Inde et sur sa croissance industrielle, alors que presque un quart du Produit intérieur brut (PIB) provient de l'agriculture. Cette sécheresse, considérée comme la plus grave depuis 15 ans, se combine avec des inondations catastrophiques dans le nord-est du pays. PNUE : http://www.unep.org/Documents/Default.asp?DocumentID=259&ArticleID=3103
|
|
|
|
|
|
|
|
Alors que les phénomènes climatiques extrêmes se multiplient, l'Agence spatiale européenne (ESA) va lancer un satellite météorologique qui devrait accroître considérablement la précision des données disponibles pour la recherche et les applications. De nombreux domaines sont concernés, de l'agriculture au sport en passant par de multiples activités de la vie quotidienne. Le satellite Meteosat de seconde génération MSG-1, premier d'une série prévue pour en compter trois, devrait être lancé par la fusée Ariane-5 le 27 août pour tourner en orbite géostationnaire, à 36.000 kilomètres à la verticale des côtes de l'Afrique de l'Ouest, en pointant vers les différents continents un puissant instrument de prise d'images. Il pourra ainsi observer la troposphère, la couche inférieure de l'atmosphère terrestre, dont l'épaisseur varie de 8km aux pôles à 17km sur l'équateur. C'est là que circule la majeure partie de l'air et que se produisent les changements climatiques. Le programme durera au moins 12 ans. Les nouveaux satellites sont plus lourds (1,8 tonne) que les Meteosat (720 kilos), dont sept exemplaires ont été lancés en vingt ans, mais ont des performances "dix fois meilleures que celles des actuels Meteosat", selon Patrick Maure, responsable du programme MSG chez Aérospatiale. En effet, le radiomètre SEVIRI (Spinning Enhanced Visible & Infrared Imager, instrument de mesure de l'intensité des rayonnements) dont sera équipé MSG-1 possède douze canaux de données contre trois pour les Meteosat actuels, les images étant transmises tous les quarts d'heure au lieu de chaque demi-heure, et le canal HRV (Haute Résolution Visible) possède une résolution de 1km au lieu de 2,5km. Ces satellites sont en outre plus stables et moins sensibles aux interférences que leurs prédécesseurs. Au final, MSG multipliera par dix la quantité de données brutes, ce qui nécessite des logiciels spécialement conçus à cet effet. Le coût des services est d'environ 10 millions d'euros par an, pour des bénéfices estimés à 140 millions d'euros par an rien que pour l'Europe. Les domaines d'applications: l'agriculture, le trafic maritime, le contrôle aérien (prévoir les orages par exemple), le rail, l'industrie du bâtiment (savoir quand commencer un chantier de plein air), le chauffage (prévoir la demande)... Les satellites de seconde génération permettront peut-être de trouver l'origine de l'apparente progression des phénomènes climatiques exceptionnels: l'année 2001, avec des conditions météorologiques extrêmes sur toute la planète, a été la plus chaude jamais enregistrée à l'exception de 1988, et 2002 est en train de prendre le même chemin, avec une moyenne des températures supérieure de 0,71°C à celle enregistrée entre 1961 et 1990, selon l'ESA. La première société européenne de réassurance (assureur des assureurs), l'Allemande Munich Re, estime que le coût des dommages occasionnés par les catastrophes naturelles, comme les tempêtes de décembre 1999 ou les inondations actuelles, a pratiquement été multiplié par dix entre 1960 et les années 90, pour atteindre un total de 614 milliards d'euros entre 1990 et 1999. La tendance actuelle est au doublement des dommages tous les dix ans ou presque. Les données de MSG devraient permettre de prévenir ou d'atténuer les dégâts. Les nouveaux satellites amélioreront aussi les prévisions à long terme sur le changement climatique et ses effets. "Il faut s'attendre à voir émerger de nouvelles disciplines au sein de la science météorologique dès que les centres de recherche et les universités disposeront des données de MSG", estime Andreas Ottenbacher, météorologue à l'ESA. "Je crois fermement que nous verrons apparaître d'ici deux ou trois ans de nouveaux types de produits et services qu'il est encore difficile d'imaginer aujourd'hui". AP : http://fr.news.yahoo.com/020815/5/2praq.html
|
|
|
|
|
|
|
|
La moitié des habitants de la planète manquera d'eau dans trente ans si rien n'est fait, selon l'ONU: le dossier, en tête des priorités du sommet de la Terre de Johannesburg, était au menu mercredi de la conférence des Nations Unies sur le développement et l'environnement. Les députés européens qui ont enjambé mardi les égouts débordants à ciel ouvert dans la township misérable d'Alexandra, à deux kilomètres des installations luxueuses du Sommet, ont mesuré le défi posé. 1,1 milliard de personnes dans le monde n'ont pas accès à l'eau potable et 2,4 milliards ne disposent pas d'installations sanitaires décentes, selon le Programme des Nations Unies pour l'Environnement. 2,2 millions de personnes, dont nombre d'enfants, meurent chaque année à la suite de diarrhées. Les progrès ont été maigres depuis le Sommet de Rio il y a dix ans: le nombre de personnes desservies par de véritables égouts et canalisations a seulement progressé de 4,1 milliards à 4,9 milliards. Parmi les cinq priorités du sommet identifiées par le Secrétaire général des Nations Unies Kofi Annan (eau, énergie, santé, agriculture et biodiversité), l'eau est peut-être le sujet le plus consensuel. Tous les pays rivalisent d'initiatives pour aider localement telle ou telle population pauvre à accéder à l'eau potable ou des égouts corrects. L'Union européenne lancera le 3 septembre une "Initiative européenne sur l'eau" visant la gestion intégrée des fleuves transfrontaliers d'ici 2005, notamment en Afrique. Les Américains ne sont pas en reste, avec par exemple un projet de la fondation Hilton associant fonds publics, privés et financement de l'Unicef pour amener l'eau potable et l'assainissement à des populations rurales du Ghana, du Mali et du Niger. Ces initiatives appelées "partenariats publics-privés", sans doute l'aspect le plus fécond du sommet, masquent mal la pauvreté des textes politiques sur la table. Sur l'eau, le sommet propose aux pays un objectif de "réduire de moitié le nombre de personnes qui n'ont pas accès à l'assainissement d'ici 2015". Sommet de Johannesburg : http://www.un.org/french/events/wssd/
|
|
|
|
|
|
|
|
Sommet de la Terre sur le développement durable, les avancées sont si minimes, après presque une semaine de négociations, que l'accord qui vient d'être trouvé sur la pêche a été salué comme une véritable « percée » par les Nations unies. Consciente de la nécessité de renverser la tendance à la surexploitation qui menace dangereusement les ressources marines, la communauté internationale s'est en effet mise d'accord pour restaurer d'ici 2015 les stocks de poissons. « Cet accord va donner aux gouvernements une basse essentielle pour agir, a estimé Nitin Desai, secrétaire général du Sommet. La surexploitation ne peut pas continuer. Elle menace l'approvisionnement alimentaire de millions de personnes. Cet accord reconnaît la nécessité d'une action coordonnée entre les gouvernements, de façon urgente, pour gérer les océans de façon responsable ». De quoi réjouir Philippe Cury, chercheur à l'Institut de recherche pour le développement (IRD), et basé au département océanographie de l'Université du Cap. « Si l'on continue comme cela, le poisson risque de devenir un produit de luxe dans certaines régions », assure-t-il. En effet, selon les Nations unies, les trois quarts des zones de pêche dans le monde sont exploitées au-delà de leurs capacités à se renouveler. Il faut dire que les volumes de poissons pêchés à l'échelle mondiale sont passés de 25 millions de tonnes dans les années 50 à 50 millions de tonnes dans les années 70, pour atteindre même 80 millions de tonnes dans les années 90. Plus encore que les volumes pêchés, ce sont les méthodes qui inquiètent Philippe Cury, et tout particulièrement les captures accidentelles. Chaque année, 30 millions de tonnes de poissons sont rebasculés par-dessus bord, morts, faute de pouvoir être commercialisés. C'est ainsi que pour un kilo de crevettes pêché, 5 ou 6 kilos de poissons sont sacrifiés. « C'est une activité destructrice. On tue d'abord et on récolte ensuite. C'est comme si on jetait une bombe dans une forêt avant de chasser », s'insurge le chercheur français. Résultat : chaque zone de pêche de la planète a été chalutée huit fois. De quoi modifier totalement l'écosystème. Si elle favorise certaines de ses composantes, comme les oursins et les éponges, cette surexploitation peut menacer dangereusement certaines espèces. C'est le cas de la morue ou du saumon, dont le stock s'est effondré au Canada, au point que la disparition de cette espèce revêt aujourd'hui un caractère irréversible dans la région. Et l'aquaculture des poissons carnivores ne peut guère être considérée comme une alternative à la pêche, « car il faut pêcher des poissons sauvages pour nourrir ceux d'élevage ». Figaro : http://www.lefigaro.fr/sciences/20020830.FIG0187.html
|
|
|
|
|
|
|
|
Le texte sur l'énergie finalement adopté le 2 septembre après des heures de discussions, prévoit d'"accroître substantiellement et de façon urgente" la part des sources d'énergie renouvelables dans la consommation mondiale. Il ne fixe ni pourcentage ni échéance pour y parvenir. Le texte ne reprend aucun des chiffres de la proposition initiale européenne, qui souhaitait un objectif de 15% d'ici 2010 d'énergies renouvelables (solaire, éolien, hydroélectricité) dans la consommation énergétique mondiale. L'Europe s'est heurtée à un mur des Etats-Unis qui jugeaient ce double objectif irréaliste, et de l'OPEP qui entendait défendre son pétrole. "Quelle différence entre les discours et l'action!", s'est exclamé le président équatorien Gustavo Noboa. "Ceux qui s'érigent en parangons de la cause environnementale sont les plus gros pollueurs, et ne veulent ni accepter des compromis pour sauver la planète, ni maintenir les objectifs officiels de l'aide au développement", a-t-il lancé. Une avancée significative a toutefois été réalisée sur le dossier du climat, lorsque le Premier ministre russe Mikhaïl Kassianov a annoncé que la Russie allait ratifier Kyoto "dans un avenir très proche". La ratification russe, qui suit la confirmation par le premier ministre canadien Jean Chrétien, de la ratification des accords de Kyoto par le Canada, permettra la mise en oeuvre de cet accord de réduction des gaz à effet de serre, isolant les Etats-Unis, qui l'ont rejeté en mars 2001. La délégation américaine a opposé mardi un tir de barrage, avec les pays pétroliers de l'OPEP, à la proposition européenne sur l'énergie fixant un objectif chiffré pour augmenter la part des énergies "propres" comme l'éolien et le solaire dans la consommation mondiale en 2010. Le compromis finalement adopté est dépourvu de tout chiffre ou calendrier. La commissaire européenne à l'Environnement, Margot Wallstroem, s'est déclaré "déçue par de nombreux aspects du compromis". "Nous savions que ce serait difficile avec une sorte d'alliance entre des groupes qui n'acceptaient ni les objectifs ni le calendrier que nous proposions", a-t-elle ajouté. "Si le G-77 (pays en développement) nous avait appuyés, bien sûr cela aurait été différent". Le chapitre de l'énergie était le dernier "gros morceau" des discussions pour un Plan d'action en faveur de la réduction de la pauvreté et d'une croissance respectueuse des ressources planétaires.Les Européens ont tenté de compenser ce revers politique en annonçant une initiative politique pour regrouper autour d'eux les pays désireux de se fixer des objectifs chiffrés. Margot Wallstroem a annoncé une "coalition de la bonne volonté avec les pays qui restent déterminés à se fixer des objectifs chiffrés et des échéances sur les énergies renouvelables". "Nous avons déjà discuté avec les pays d'Amérique latine, des Caraïbes et d'Afrique, et nous savons que la Norvège et la Suisse vont probablement nous soutenir", a-t-elle indiqué. Sommet de Johannesburg : http://www.johannesburgsummit.org/html/whats_new/feature_story35.htm
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
L'Assistance publique-hôpitaux de Paris et la société américaine Genzyme Biosurgery ont annoncé le lancement d'un vaste essai de thérapie cellulaire réalisé à partir de cellules prélevées sur les malades, afin de développer un traitement contre l'insuffisance cardiaque sévère. Cet essai, qui se déroulera en Europe et en Amérique du nord, portera sur 300 patients. Il découle du succès du premier essai mondial mené en France sur dix malades, sous la direction du Pr Philippe Menasché, chirurgien-cardiaque à l'hôpital Georges Pompidou, à Paris. Les premiers résultats de cet essai avaient été publiés le 27 janvier 2001 dans la revue The Lancet. La technique consiste à prélever sur le muscle de la cuisse du malade des cellules dormantes capables de régénérer de nouvelles cellules musculaires, de les mettre en culture, puis de les réinjecter en masse - on en compte alors 800 à 900 millions - directement dans les zones du coeur qui ont été détruites par la maladie cardiaque. Sur les dix malades qui, à ce jour, ont bénéficié de cette technique, neuf sont en bonne santé et un est mort d'un accident vasculaire cérébral, a indiqué mardi devant la presse le Pr Menasché."Ce programme de thérapie du coeur est le plus important au monde (...) et l'insuffisance cardiaque est la maladie la plus coûteuse en Europe et aux Etats-Unis", a souligné le président de Genzyme, Duke Collier.Plus de 20 millions de personnes souffrent d'insuffisance cardiaque dans le monde et, dans la moitié des cas, cette maladie fait suite à un infarctus du myocarde qui provoque une nécrose plus ou moins étendue du muscle cardiaque. C'est précisément parce que ces cellules du coeur ne possèdent pas de capacité de régénération que les chercheurs et les cardiologues ont eu l'idée de prélever d'autres cellules capables, elles, de redonner vie à la partie du coeur lésée. En France, environ 500.000 personnes souffrent d'insuffisance cardiaque et 120.000 nouveaux cas apparaissent chaque année, estime le Pr Menasché. Ce traitement encore expérimental ne va probablement pas remplacer la greffe du coeur mais, destiné à traiter des insuffisances cardiaques gravissimes, il pourrait s'adresser à des patients pour lesquels la greffe du coeur est contre-indiquée ou pour lesquels un pontage n'est plus possible. Selon le Pr Menasché, "10% de ces insuffisances cardiaques sont graves et répondent mal au traitement" et pourraient donc bénéficier de cette "alternative thérapeutique". L'essai devrait débuter au début du mois d'octobre. Les cellules qui seront utilisées seront produites à l'hôpital Saint-Louis, à Paris, ainsi que dans les laboratoires de Genzyme Biosurgery, à Cambridge, près de Boston (Etats-Unis). La firme Genzyme - une des cinq premières sociétés de biotechnologie dans le monde - concentre ses recherches sur les maladies orphelines, les autogreffes de tissus et les traitements et vaccins anti-cancéreux. AFP : http://fr.news.yahoo.com/020730/202/2p133.html
|
|
|
|
|
|
|
|
L'agence fédérale de sécurité alimentaire et pharmaceutique (FDA) américaine a accordé lundi en un temps record l'autorisation de mise sur le marché américain d'un médicament contre le cancer colorectal (côlon et rectum). Ce médicament injectable, l'oxaliplatin (commercialisé sous le nom Eloxatin), a été approuvé en sept semaines, la période la plus courte jamais imposée par la FDA pour mettre sur le marché un médicament contre le cancer, selon cette agence. "Les patients diagnostiqués pour un cancer colorectal auront désormais accès à une autre option de traitement pour cette maladie", a déclaré le secrétaire à la Santé Tommy Thompson en ajoutant: "Je souhaite saluer la FDA pour avoir examiné la sécurité du médicament et son efficacité si rapidement". Le médicament, utilisé en alternance avec d'autres substances, a permis de réduire les tumeurs cancéreuses chez certains patients, ou de retarder leur croissance, selon la FDA. "Même si les bénéfices à long terme comme une augmentation de la survie n'ont pas encore été démontrés, les premières études montrent que l'Eloxatin pourrait avoir des effets significatifs pour de nombreux patients", a expliqué le Dr Lester Crawford, directeur adjoint de la FDA. Le médicament est fabriqué par le groupe pharmaceutique français Sanofi-Synthelabo. Les cancers colorectaux arrivent en quatrième place de l'ensemble des cancers aux Etats-Unis et se placent en deuxième position pour la mortalité. Environ 150.000 nouveaux cas sont diagnostiqués chaque année. Ce type de cancer tue quelque 56.000 personnes par an dans le pays. AFP : http://fr.news.yahoo.com/020812/202/2po9x.html
|
|
|
|
|
|
|
|
Un nouveau pas important a été accompli dans la lutte contre le cancer. « Nous avons découvert la matière première génétique pour produire des molécules capables de tuer des cellules cancéreuses », a déclaré le docteur Ben Shen, dans un article publié par la revue « Science », à propos d'une découverte menée par son équipe de chercheurs de l'université du Wisconsin (Madison). En étudiant le génome de deux bactéries trouvées dans le sol en Chine et en Amérique du Nord, les scientifiques américains ont découvert les gènes responsables de la production des enediynes. Ces molécules, connues pour leurs propriétés anticancéreuses, demeuraient jusqu'alors difficilement exploitables : leur structure chimique, extrêmement complexe, pose problème lorsqu'il faut les synthétiser. Un problème résolu par les chercheurs, qui ont trouvé le mécanisme naturel de fabrication de ces toxines. Grâce à leurs efforts, les enediynes vont pouvoir être produites en grande quantité. Reste à les manipuler en vue d'un usage thérapeutique. Une fois synthétisée, la molécule « pourrait être amarrée à un anticorps qui la dirigerait alors contre la cellule malade », explique le docteur Jon Thorson, un des auteurs de la découverte. Considérées comme plus de 1 000 fois plus efficaces que certains des agents anticancéreux les plus performants actuellement sur le marché, les enediynes doivent être utilisées comme des armes de précision : « La molécule est si puissante qu'elle doit être dirigée contre une cible particulière. Grâce à cela, une ou deux molécules suffisent pour tuer la cellule », précise Jon Thorson. Science du 16-08-2002 : http://www.sciencemag.org/cgi/content/abstract/297/5584/1170
|
|
|
|
|
|
|
|
Une nouvelle molécule, en cours d'expérimentation, redonne de l'espoir aux personnes souffrant du sida et chez lesquelles certaines souches virales sont devenues résistantes aux traitements habituels. Le produit risque toutefois d'être cher compte tenu des difficultés rencontrées par ses fabricants. Baptisé le Fuzeon par ses deux concepteurs, le groupe pharmaceutique suisse Roche et la société américaine Trimeris, basée à Durham en Caroline du Nord, la molécule représente une priorité pour la Food and Drug Administration (FDA), l'agence américaine du médicament. Les firmes espèrent obtenir son feu vert rapidement en vue d'une commercialisation au printemps prochain. Le Fuzeon est la première molécule d'une classe d'anti-VIH (virus du sida), les inhibiteurs de la fusion, qui empêchent l'entrée du virus dans la cellule sanguine. Son utilisation devrait permettre de prolonger la vie des patients dont certaines souches virales sont devenues résistantes aux thérapeutiques habituelles. Toutefois, le coût d'un traitement serait compris entre 10.000 et 15.000 dollars (euros) par an et par patient, la fabrication du produit étant très complexe. Pour l'heure, le médicament le plus cher du marché coûte environ 7.500 dollars par an au patient. Toutefois, il faut compter environ 15.000 dollars pour certains cocktails de thérapies. Si les organisations de lutte contre la maladie s'inquiètent du prix jugé dissuasif du Fuzeon, Roche et Trimeris avertissent qu'ils ne pourront peut-être pas répondre à la demande initiale. Car les besoins sont là: une étude récente publiée par le "New England Journal of Medecine" soulignait que le nombre de personnes nouvellement infectées par le virus du SIDA et résistantes à un des médicaments anti-VIH avait augmenté d'un tiers entre 1995 et 2000 pour atteindre 12,4%. Par ailleurs, une étude du ministère américain des Anciens combattants publiée en décembre 2001 soulignait que 78% des 1.647 personnes testées présentaient une résistance à un antiviral au moins. Aujourd'hui, les effets cliniques ont montré que l'association du Fuzeon aux thérapeutiques classiques offrait aux personnes traitées deux fois plus de chances qu'à celles qui n'en prenaient pas, soit un niveau de VIH inférieur au niveau détectable. Le Fuzeon a été mis au point par deux chercheurs de l'université Duke, Dany Bolognesi et Tom Matthews, qui ont ensuite créé Trimeris. Le nouveau médicament est un peptide long et complexe, autrement dit une molécule composée d'acides aminés difficiles à fabriquer, qui doit être injectée deux fois par jour. La plupart des médicaments anti-VIH sont de petites molécules plus faciles à produire et qui peuvent être avalées facilement par les malades. "Nous savions que nous allions devoir relever le défi de la production et par conséquent du coût de cette molécule, mais quelle était l'alternative?", a fait valoir Bolognesi. "Le plus important est que nous disposions d'une nouvelle molécule." AP : http://fr.news.yahoo.com/020822/5/2q1oh.html
|
|
|
|
|
|
|
|
Un nouveau vaccin expérimental neutralisant une toxine produite par le parasite responsable du paludisme, qui tue chaque année plus de deux millions de personnes dans le monde, a donné des résultats prometteurs sur des souris, selon une étude publiée dans la revue britannique Nature. Les premiers tests sur les humains pourraient commencer dans les cinq ans, selon les chercheurs. L'étude, dirigée par Louis Schofield,du Walter and Eliza Hall Institute of Medical Research, à Melbourne, Australie, a été conduite en collaboration avec le Dr Peter Seeberger du MIT (Massachusetts Institute of Technology) à Cambridge (Etats-Unis). Schofield a récemment découvert que le parasite produit dans l'organisme qu'il infeste d'une toxine, la GPI (pour glycosylphosphatidylinositol), contribuant à la virulence du paludisme (fièvre, convulsions, décès) chez les souris et probablement chez l'homme, selon les chercheurs. Les Américains avaient pour leur part démontré que de faibles quantités de cette toxine pouvait servir à immuniser les souris contre l'infection. Les Drs Seeberger et Schofield ont fabriqué une version synthétique de cette toxine (comprenant son composant principal), en pensant qu'elle jouerait un rôle comparable dans la maladie humaine, et l'ont attachée à une molécule porteuse, suffisamment grosse pour déclencher une réaction du système de défense immunitaire humain. Comme pour les vaccins contre la diphtérie et le tétanos, l'objectif du vaccin GPI est de déclencher une production d'anticorps capables de reconnaître la toxine comme un envahisseur et de la détruire. L'injection de cette formule synthétique a permis la survie de 75% (65 à 95%) des souris alors que les rongeurs non vaccinés sont tous morts après avoir reçu des doses massives de parasite.Les souris vaccinées ont également été protégées de façon conséquente contre les redoutables accès de paludisme cérébral. Les chercheurs tentent à présent d'améliorer la formule de leur vaccin, qui bloque la toxine sans tuer le parasite. "En 1886, un médecin italien Camillo Golgi avait avancé l'idée que le parasite responsable du paludisme (Plasmodium falciparum) produit une toxine associée aux fièvres périodiques caractéristiques de cette maladie", soulignent les chercheurs. Mais la piste des toxines comme angle d'attaque pour mettre au point un vaccin n'avait jusque-là pas été explorée. Nature : http://www.nature.com/nsu/news.html
|
|
|
|
|
|
|
|
Quand on traite l'hypertension artérielle (HTA), on fait d'une pierre deux coups : la prise en charge d'une maladie et une action préventive. Parce que l'HTA est responsable de centaines de milliers d'infarctus et d'accidents vasculaires par an. En particulier des accidents vasculaires cérébraux (AVC). Gérard de Pouvourville, économiste à l'INSERM (U 537), indique ainsi qu'en 1999, " on a recensé 148 000 hospitalisations pour AVC en France. Dont 20 % de récidives. Et 10% des victimes décèdent moins d'un an après le premier accident. " Mais les survivants portent souvent des séquelles majeures et durables. Il y aurait ainsi " 220 000 personnes avec un handicap lié à la survenue d'un AVC, vivant pour 10 % en institution et 90 % à domicile. " Le coût social de ces accidents est considérable. " L'hospitalisation initiale représente 534 millions d'euros par an, " ajoute Gérard de Pouvourville. " Celui du traitement atteint 230 millions et les prestations à long terme coûtent 290 millions pour l'aide à domicile, et 488 millions en long séjour. Sur 780 millions d'euros, 244 restent à la charge des familles. Au total les AVC pèsent 1,530 milliards d'euros par an, et le coût moyen total sur toute la vie d'un AVC est un peu inférieur à 50 000 euros ! " La bonne nouvelle, c'est qu'il existe des échappatoires. " Le coût moyen d'un hypertendu traité jusqu'à la fin de ses jours est inférieur à 580 euros par an. Il est donc extrêmement rentable de bien prendre en charge l'HTA pour éviter les AVC. " Un problème de santé publique pointé du doigt dans le dernier programme gouvernemental 2002-2005, où il est souligné que 16,5 % des plus de 20 ans sont hypertendus... Destination Santé : http://www.destinationsante.com/
|
|
|
|
|
|
|
|
Un méridional vient de bénéficier d'une greffe après avoir porté un coeur artificiel pendant plus de trois ans, une durée qui permet d'envisager des implantations définitives de coeur artificiel, a annoncé mercredi l'un des chirurgiens qui l'ont opéré. Christian Rabasa, qui a conservé un ventricule artificiel électrique complètement implantable d'avril 1999 jusqu'à sa greffe en mai 2002, est le Français ayant conservé le plus longtemps un tel appareil et l'un des six malades au monde, a-t-on appris auprès du service de chirurgie cardiaque de l'hôpital marseillais de la Timone. Cet appareillage mis au point aux Etats-Unis "peut désormais s'envisager, dans certaines indications, comme une solution définitive, et non plus provisoire dans l'attente d'une greffe", a précisé le Pr Frédéric Collart, qui avait opéré Christian Rabasa en 1999 puis, avec ses confrères Dominique Metras et Alberto Riberi, à nouveau en mai 2002. Le Professeur Collart a souligné les avantages de la technologie compte tenu de "l'incidence accrue de l'insuffisance cardiaque" et de la diminution du nombre de donneurs, et pour les patients qui ne peuvent être greffés parce qu'ils sont trop âgés ou parce qu'ils ne tolèrent pas les traitements anti-rejet. Christian Rabasa, maintenu en vie dans un service de réanimation après son admission à l'hôpital voilà trois ans, a vécu de manière totalement autonome avec son coeur artificiel. Ce Provençal au groupe sanguin rare et à la forte corpulence a dû attendre trois ans avant qu'un coeur convenable ne soit disponible. Dix heures d'intervention ont alors été nécessaires. Logé dans la paroi abdominale, le ventricule artificiel porté par Christian Rabasa pendant trois ans est branché sur le ventricule gauche et sur l'aorte ascendante. Il est relié à un système de contrôle et à des batteries que le malade porte à la taille ou dans une sacoche. A ce jour, 1.360 patients ont bénéficié du même système dans le monde. De l'autre côté de l'Atlantique, L'Américain Tom Christerson, qui vit depuis près d'un an avec un coeur artificiel, est rentré chez lui après une opération qui a permis de changer la pile du système. Le patient avait été admis le 15 juillet dernier au Jewish Hospital de Louisville (Kentucky), a déclaré jeudi Mary Jennings, porte-parole de l'établissement. Elle n'a pas précisé la durée de son hospitalisation mais a confirmé qu'il avait regagné son domicile. Tom Christerson vit avec un coeur artificiel autonome depuis le 13 septembre dernier. Sur les sept patients ayant reçu un coeur de la société AbioCor, il est celui qui a survécu le plus longtemps. Le Dr Laman Gray, l'un des médecins qui lui ont implanté le coeur, a expliqué dans un communiqué que Christerson s'en sort très bien. "Il a survécu presqu'une année, une période suffisamment longue pour que le coeur nécessite un peu d'entretien." AP : http://fr.news.yahoo.com/020816/5/2ps2g.html
|
|
|
|
|
|
|
|
PPL Therapeutics, la société britannique de biopharmacie à l'origine du clonage de la brebis Dolly, a annoncé une nouvelle avancée vers la transplantation sur l'homme d'organes de porcelets clonés. La firme, basée en Ecosse, a indiqué dans un communiqué avoir produit dans sa filiale américaine à Blacksburg (Virginie) cinq porcelets totalement dépourvus d'un gène qui cause le rejet par le corps humain d'un organe de porc transplanté. Les porcelets sont nés le 25 juillet, mais l'un d'eux est mort peu après sa naissance "pour une cause inconnue", a indiqué une porte-parole de la société. PPL a précisé avoir réalisé une première mondiale en trouvant un moyen de désactiver les deux versions du gène alpha 1,3 galactosyl transfarase. En janvier, la société avait annoncé avoir désactivé ce gène, qui produit un enzyme ajoutant un sucre à la surface des cellules du porcelet, lequel permet aux cellules humaines de reconnaître qu'il s'agit d'un corps étranger. Lorsque les cellules humaines repèrent un corps étranger, elles le rejettent et la greffe échoue. En fait, PPL n'avait supprimé qu'une version du gène, l'autre restant active. Jeudi, c'est la capacité à supprimer entièrement ce gène qui a été annoncée. "Cette avancée nous rapproche d'une solution au problème mondial que représente la pénurie d'organes et de cellules destinés à la transplantation", a déclaré le vice-président de la société David Ayares. La société estime que les premières applications de cette technologie pourraient être liées au diabète, avec la transplantation de cellules produisant de l'insuline. Les essais cliniques pourraient démarrer dans quatre ans. BBC : http://news.bbc.co.uk/1/hi/sci/tech/2210306.stm
|
|
|
|
|
|
|
|
Les Nations-Unies ont lancé un appel aux pays en développement pour qu'ils doublent leurs dépenses en matière de santé d'ici 2010, les portant à un total annuel de 60 milliards de dollars. David Navarro, directeur pour le développement durable et l'environnement sain de l'Organisation mondiale de la santé (OMS), a souligné au premier jour du Sommet de la Terre de Johannesburg que les gouvernements devaient considérer ces dépenses non pas comme un coût mais comme un investissement, ajoutant qu'elles jouaient un rôle de "locomotive" pour sortir ces pays de la pauvreté. Citant un rapport de la Commission de l'OMS sur la macroéconomie et la santé, David Navarro a précisé que le doublement annuel du niveau actuel de 30 milliards en dépenses de santé dans le monde en développement permettrait de "sextupler la valeur de la production et de sauver huit millions de vie (par an)". Le haut-fonctionnaire a exprimé l'espoir que les pays riches contribuent pour moitié aux 30 milliards de dollars supplémentaires, les 15 autres milliards additionnels provenant des gouvernements des pays concernés. Actuellement, a-t-il rappelé, les pays riches fournissent six milliards de dollars/an sous forme de programmes officiels d'aide au développement. "Cet accroissement est important, mais il ne représenterait que 0,1% du produit national brut des nations riches", a souligné M. Navarro. Cette aide supplémentaire devrait se concentrer principalement sur l'Asie, la région la plus peuplée du monde et qui comporte le plus grand nombre de pauvres, ainsi que sur l'Afrique qui souffre le plus durement de la pandémie du sida et de la contamimation par le virus VIH. AFP : http://www.caducee.net/afp/edit.asp?id_depeche=11426
|
|
|
|
|
|
|
|
Jusqu'à récemment, un patient souffrant de dyspnée aiguë (gène respiratoire pouvant avoir une origine cardiaque) devait passer une radio thoracique et une échocardiographie, autant d'examens qui retardent la prise en charge de cette pathologie. En effet, face à une dyspnée aiguë d'origine cardiaque, il est difficile de la distinguer des autres causes car les symptômes ne sont pas suffisamment spécifiques (dyspnée, toux, oedème). Par ailleurs, les examens standards ne sont pas sans faille. Aujourd'hui, les médecins disposent d'un outil ultra rapide et fiable pour diagnostiquer une insuffisance cardiaque et en mesurer la sévérité. Il s'agit du dosage sanguin du peptide natriurétique de type B (BNP), une neurohormone reflétant l'état de stress du tissu myocardique. Sept centres hospitaliers ont participé à cette étude, incluant 1.586 patients s'étant présentés aux urgences pour dyspnée aiguë. Le diagnostic clinique d'insuffisance cardiaque a été porté par deux cardiologues indépendants chez 47% des sujets. Pour les autres, la dyspnée avait une autre origine. Les diagnostics ont systématiquement été réalisés à l'aide d'un bilan clinique standard, puis comparés aux résultats obtenus avec le dosage du PNB. Ce test seul, sans cliché thoracique ni échographie, a permis un diagnostic correct chez 9 patients sur 10, soit une fiabilité bien plus importante que n'importe quel autre examen. Ainsi, il permet de confirmer le diagnostic d'insuffisance cardiaque, d'en mesurer la sévérité, de prédire les futurs évènements cardiaques (dont la mort subite) et d'évaluer l'efficacité du traitement. Ce test qui nécessite deux gouttes de sang et 15 minutes, sauve des vies et fait gagner un temps précieux ! Esanté : http://www.e-sante.net/francais/article.asp?idarticle=5872&idrubrique=4
|
|
|
|
|
|
|
|
Un des dogmes de la génétique est remis en question : l'ADN mitochondrial pourrait être transmis par le père, et pas seulement par la mère comme le pensent les généticiens. Mauvaise nouvelle pour les spécialistes de la génétique des populations, qui se basent sur l'ADN mitochondrial (ADNmt) pour reconstruire des arbres généalogiques. C'est ainsi qu'une ancêtre commune, l'Eve africaine, a été établie pour tous les Homo sapiens. Marianne Schwartz et John Vissing publient leur surprenante découverte dans le England Journal of Medicine. Ces deux professeurs de Copenhague (Danemark) étudiaient le cas d'un patient de 28 ans atteint d'une myopathie mitochondriale -une maladie due à une mutation génétique au sein de l'ADNmt. Les analyses génétiques ont révélé que la mutation était hébergée par l'ADNmt du père, non de la mère. Or les généticiens considèrent que l'ADNmt du père, porté par le sperme, est détruit, inactivé ou dissous par l'ADN mitochondrial de l'ovocyte au cours de l'embryogenèse. Chez les plantes, la transmission de l'ADNmt n'est pas l'apanage d'un seul parent. Chez les mammifères, le phénomène est rare. Il a été observé chez la souris, mais jamais chez un être humain en bonne santé. «Les échantillons étudiés étaient peut-être trop petits pour permettre de détecter une transmission paternelle» suggère dans son commentaire Sanders William, chercheur au Duke University Medical Center (USA). Reste à connaître la fréquence d'une telle transmission. «Le cas inhabituel décrit par Schwartz et Vissing est bien plus qu'une simple curiosité» conclut Williams. New Scientist : http://www.newscientist.com/news/news.jsp?id=ns99992716
|
|
|
|
|
|
|
|
Les chercheurs ont constaté que la suppression chez la souris du gène appelé SCD-1 semblait protéger les animaux de toute prise de poids malgré les efforts des chercheurs pour les faire grossir. La découverte a été relatée dans les Compte-rendus de l'Académie nationale des sciences américaine (PNAS). "L'idée était de les faire grossir, mais les souris dépourvues du gène SCD-1 n'ont jamais pu le faire, malgré une alimentation contenant près de 15% de graisses", a expliqué James Ntambi, professeur à l'Université du Wisconsin à Madison, qui a mené l'étude. Ce gène permet la production d'un enzyme appelé SCD nécessaire à l'organisme pour la production des principaux acides gras. En l'absence de gène SCD-1, l'excès de graisse alimentaire paraît être détruit par le métabolisme. "Nous avons une preuve biochimique que les souris brûlent l'excès de graisse", a estimé le chercheur. L'élimination du gène SCD-1 a néanmoins certains effets indésirables parmi lesquels des problèmes de peau et de vision quand les animaux vieillissent, selon James Ntambi et son collègue Makoto Miyazaki. L'équivalent du gène SCD-1 a récemment été identifié chez l'homme et le groupe de chercheurs dirigé par James Ntambi mène actuellement des études sur le fonctionnement de ce gène. James Ntambi, professeur à l'Université du Wisconsin à Madison et qui a mené l'étude, suggère qu'il est possible de produire des médicaments capables de protéger contre l'obésité et le diabète. Aux Etats-Unis, environ 20% de la population souffre d'obésité selon les statistiques des Centres de contrôle des maladies d'Atlanta en Géorgie. Des chercheurs britanniques, américains et australiens ont récemment découvert une hormone appelée PYY3-36 qui "avertit" le cerveau lorsqu'il y a satiété de l'organisme et pourrait donc offrir la base de traitements amaigrissants, qui a été mise à jour par le magazine scientifique Nature du 9 août dernier. Cette "hormone de satiété" qui pourrait contribuer à combattre le fléau de l'obésité. PYY3-36, qui est fabriquée par des cellules qui tapissent le petit intestin et le colon, est libérée dans le sang après les repas et reste élevée entre les repas. Les chercheurs suggèrent qu'elle voyage jusqu'à l'hypothalamus, le centre du cerveau où se coordonnent de multiples fonctions somatiques et viscérales, dont le comportement alimentaire. Là, elles bloquent l'action des nerfs qui déclenchent la sensation de faim. Les chercheurs espèrent que des médicaments imitant la PYY3-36, ingérés avant les repas, pourraient diminuer l'appétit et aider à lutter contre la prise de poids. PNAS : http://www.pnas.org/cgi/content/abstract/132384699v1? Nature : http://www.nature.com/nsu/020805/020805-8.html
|
|
|
|
|
|
|
|
Si les singes ne parlent pas, c'est très probablement parce qu'ils manquent du "gène du langage", révèle une équipe scientifique germano-britannique, dans une communication publiée par la revue Nature. En effet, tout en étant capables d'apprendre à communiquer en utilisant le langage gestuel des sourds-muets ou des formes de langage symbolique, et à comprendre des centaines de mots prononcés par des humains, les grands singes (chimpanzés, gorilles et orangs-outans) ne parviennent pas à posséder la parole. Les biologistes cherchaient la raison de cette incapacité essentiellement dans l'anatomie du larynx, dont la taille et la position plus basse chez l'homme que chez les singes en font l'unique organe apte à émettre des sons articulés. Pour Svante Pääbo etses collègues de l'Institut Max-Planck d'anthropologie évolutionnaire, à Leipzig, et du Wellcome Trust Center for Human Genetics de l'Université d'Oxford, la raison est en fait plus profonde. Ces chercheurs se sont inspirés des résultats d'un autre travail (publié en octobre 2001, également dans Nature), qui avait permis d'identifier un gène particulier, FOXP2, grâce à l'examen de personnes atteintes de troubles dans le contrôle des mouvements de la langue et des lèvres et dans la formation des mots. Il ne s'agit pas du gène de la parole proprement dit : ce serait plus exactement une forme mutante de ce gène qui serait responsable de la fabrication d'une protéine, elle-même indispensable au fonctionnement des différentes zones du langage. En son absence, l'homme éprouve des difficultés à séparer les mots et à maîtriser la syntaxe. L'équipe de Svante Pääbo a eu l'idée de profiter de la mise en évidence de ce gène pour essayer de le rechercher chez les trois singes anthropoïdes mais aussi chez la souris et le macaque rhésus, et le comparer à celui d'humains d'origine diverse (Afrique, Europe, Asie, Australie et Papouasie-Nouvelle-Guinée). Aucune trace de "mutant de la parole" n'a été décelée chez les animaux, pas même chez le plus proche cousin de l'homme de tout le règne animal, le chimpanzé, dont nos propres ancêtres se sont séparés il y a 4,6 à 6,2 millions d'années, rappellent les chercheurs. Dans l'espèce humaine, le FOXP2 semble s'être généralisé beaucoup plus tard, à une époque récente à l'échelle de l'évolution, voici quelque 200.000 ans. Ce serait donc lui, suggèrent les scientifiques, qui aurait donné à l'homme moderne le langage articulé. Ce sont donc les gènes qui font tout, ou presque. Ce sont eux qui empêchent les grands singes de parler, alors que ces primates disposent dans leur cerveau de l'aire de Broca, considérée comme génératrice de la parole chez l'être humain, et qui expliquent les échecs de toutes les tentatives d'apprendre à parler aux singes. En revanche, par le biais de langages gestuels ou artificiels à base de lexigrammes, les chimpanzés ont montré des capacités étonnantes de communication, en parvenant à utiliser correctement plusieurs centaines de "mots". Mais on sait désormais pourquoi il leur manquera à jamais la parole. Nature : http://www.nature.com/nsu/020812/020812-6.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|