|
|
Edito
Manger mieux pour mieux vivre : le vrai défi de notre temps
Gro Harlem Brundtland, Directeur général de l'OMS, vient de réunir la première table ronde entre responsables de l'OMS et des industries alimentaires. Objectifs : oeuvrer pour des régimes alimentaires plus sains et accroître l'exercice physique. Comme le rappelle l'OMS dans un communiqué, « les maladies cardiovasculaires, le cancer, le diabète, les maladies respiratoires, l'obésité et les autres maladies non transmissibles sont aujourd'hui à l'origine de 59 % des 56,5 millions de décès enregistrés chaque année dans le monde . La majorité des problèmes liés aux maladies chroniques touche désormais les pays en développement. Un régime alimentaire médiocre, une sédentarité excessive et le tabagisme figurent parmi les principales causes de ces affections. » Ainsi que l'a souligné le Dr Brundtland, la modification du régime alimentaire et l'accroissement de l'exercice physique constituent un gigantesque défi. Nous savons à présent, grâce à de nombreuses études réalisées depuis 10 ans, qu'au moins un tiers des cancers et des maladies cardio-vasculaires pourraient être prévenus simplement par un régime alimentaire équilibré, la pratique régulière d'activités physiques et bien entendu la suppression du tabac. A l'échelle de la France, une telle prévention permettrait de sauver plus de 100 000 vies par an ! L'économie annuelle réalisée pour notre collectivité nationale serait de l'ordre de 30 milliards d'euros, plus de deux fois le déficit cumulé de la sécurité sociale ! L'étude EPIC, (Etude Prospective Européenne sur l'alimentation et le cancer), actuellement dirigée par le CIRC, est la plus grande étude européenne sur nos habitudes alimentaires. Son but est d'établir le lien entre alimentation et cancer. Depuis 1992, 520 000 volontaires dans 10 pays européens sont suivis en temps réel. Les résultats préliminaires de cette étude sans précédent ont été dévoilés à Lyon en juin2001 et le moins qu'on puisse dire est qu'ils sont édifiants: une consommation quotidienne de 500 grammes de fruits et de légumes diminue de moitié l'incidence des cancers des voies aérodigestives, et réduit notablement celle des cancers du côlon ou du rectum. En France, l'Institut National de Prévention et d'Education pour la Santé (Inpes) a publié, mardi 29 avril, les premiers résultats du « Baromètre santé nutrition 2002 ». Cette enquête montre que les comportements alimentaires des Français sont de plus en plus influencés par le facteur « santé » mais cette enquête révèle également que le nombre d'obèses continue d'augmenter : 7,4 % des hommes souffraient d'obésité, ils sont 9,8 % en 2002. Quant à la proportion d'enfants obèses, elle a doublé en France depuis 25 ans et pourrait rejoindre le niveau américain d'ici 20 ans si nous ne modifions pas de manière profonde nos habitudes alimentaires. Ce sondage entre dans le Programme national nutrition santé (PNNS), lancé en septembre 2002 par le Ministre de la santé qui avait fixé, à cette occasion, « neuf objectifs nutritionnels prioritaires en termes de santé publique ». L'augmentation de l'activité physique quotidienne, de la consommation de fruits et légumes (cinq par jour), ou encore la réduction d'absorption des acides gras saturés font partie de ces objectifs. Les résultats du « Baromètre santé nutrition 2002 » montrent que ces objectifs sont encore loin d'être atteints. L'enjeu en matière de santé est pourtant considérable, non seulement en matière de maladies cardio-vasculaires et de diabète mais aussi en matière de cancer, comme l'a encore montré, Il y a quelques semaines, la plus grande étude jamais réalisée sur les liens entre cancer et surpoids. Cette étude américaine menée sur 900 000 adultes pendant 16 ans montre que l'obésité, chez l'homme comme chez la femme, augmente « le risque de développer tous les types de cancer ». Autre enseignement de cette étude, ce risque est directement proportionnel à l'importance du surpoids calculé grâce à l'indice de Masse Corporelle (IMC). C'est ainsi qu'un homme qui pèse 130 kg et mesure 1m80, voit son risque de cancer augmenter de 52 % par rapport à un homme de même taille qui pèse 80 kg ». Cette étude révèle également que tous les types de cancer sont impliqués, aussi bien celui de l'estomac que celui de la prostate chez l'homme ou du sein et de l'utérus chez la femme. Les chercheurs concluent que « le surpoids et l'obésité sont associés à environ 14 % des décès par cancer chez l'homme et 20 % chez la femme. » Une autre étude publiée le 14 mai nous apprend que les dépenses de santé associées à l'obésité et au surpoids approchent désormais celles associées au tabagisme aux Etats-Unis. Ces dépenses représentent 9,1 % des dépenses de santé annuelles totales aux Etats-Unis (voir article dans la rubrique médecine de ce numéro). Ce combat engagé au niveau mondial, et relayé au national par les pouvoirs publics, pour une alimentation plus saine et plus équilibrée, doit être servi par une volonté politique inflexible et s'inscrire dans la durée. Il faudra au moins une génération pour modifier en profondeur des habitudes alimentaires parfois multiséculaires et enracinées dans notre culture et notre histoire. Mais la puissance publique, quelle que soit sa volonté, ne pourra pas gagner seule cette bataille et il est capital que les acteurs du secteur agro-alimentaire fassent preuve d'esprit civique et prennent leur responsabilité dans ce domaine. Un premier pas a été accompli lorsque ces industriels ont accepté le principe d'une réduction d'un tiers de la quantité de sel contenu dans les préparations alimentaires. Mais il faut aller plus loin et réduire de manière très sensible la quantité de sucres et de graisses contenus dans nos produits alimentaires. Parallèlement, nos industriels doivent tout mettre en oeuvre pour promouvoir une consommation accrue de fruits et légumes et réduire la consommation d'alcool encore trop élevée dans notre pays et responsable de nombreuses maladies. Il est également essentiel que nos enfants soient initiés, dés le plus jeune âge, aux bonnes habitudes alimentaires et à la diététique, afin qu'ils adoptent le plus tôt possible une alimentation équilibrée qu'ils conserveront tout au long de leur vie. Il faut enfin intensifier les recherches scientifiques pour cerner encore mieux les liens entre l'alimentation et les principales pathologies, de manière à pouvoir non seulement éviter les comportements alimentaires à risque mais aussi, à plus long terme, s'acheminer vers de véritables régimes alimentaires personnalisés qui pourront, en fonction du profil génétique de chacun, traiter, prévenir ou retarder considérablement, et à moindre coût, l'apparition de graves maladies ainsi que les conséquences du vieillissement. C'est ainsi que des chercheurs japonais viennent d'annoncer avoir développé une variété de riz génétiquement modifié dont la consommation dispenserait les diabétiques de leurs injections régulières d'insuline (voir article dans la rubrique médecine de ce numéro). Nous devons comprendre que demain l'alimentation sera notre première médecine en prévenant de manière scientifique et individualisée la plupart des affections qui nous menacent et en nous permettant d'exploiter pleinement et jusqu'au terme de notre vie toutes nos potentialités physiques et intellectuelles. On peut même imaginer, même si ces recherches n'en sont encore qu'à leur début, que la durée de notre vie elle même pourra être sensiblement prolongée grâce à une réduction maîtrisée de notre consommation calorique. C'est en tout cas ce que laisse entrevoir de fascinantes et récentes expériences réalisées chez l'animal. Demain, si nous le voulons, grâce à l'adoption d'un mode de vie plus sain, et pour un coût financier bien modeste au regard des immenses bénéfices sociaux attendus, la bonne santé et la longévité deviendront la règle pour l'immense majorité de nos concitoyens et la maladie l'exception. Tels les médecins traditionnels chinois, qui se font payer par leurs patients bien portants mais soignent gratuitement leurs malades, ce qui les incitent à prévenir l'apparition des maladies, nous aurons alors compris que, quel que soit le niveau de connaissance et d'efficacité de la science et de la médecine, il est toujours plus facile de prévenir la maladie que de la guérir. Nous aurons également compris que nous sommes les premiers responsables de notre santé et de notre bien être et que nos choix de vie ne nous engagent pas seulement nous-mêmes mais déterminent aussi le type et les valeurs de société que nous souhaitons. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Aujourd'hui, selon France Télécom, 65 % de la population est couverte par l'ADSL, et 85 % le sera à l'horizon 2004. Entre autres mesures, l'ADSL 2 et 2+ visent à augmenter la pénétration de l'internet rapide dans les campagnes. Après des débuts un peu difficiles, l'ADSL connaît une véritable explosion des ventes, les packs tout compris et la baisse spectaculaire des tarifs n'y étant certainement pas étrangers. Ainsi, il n'y a pas moins de 1,4 million d'abonnés ADSL fin décembre 2002, dont 500000 nouveaux accès souscrits au dernier trimestre 2002. Soit une progression de 250 % sur un an. Si l'ADSL constitue un pas de géant pour la vitesse et la facilité de navigation sur le web par rapport à une connexion modem, elle n'est pas pour autant la panacée. D'une part, la limite de raccordement de 5 kilomètres entre le répartiteur téléphonique et l'usager constitue un réel problème à la campagne. D'autre part, le débit montant, suffisant pour une navigation Web, devient vite restrictif si l'on envoie régulièrement de gros volumes de données. Planchant sur ces problèmes, l'ITU (International Telecommunication Union) , qui définit les standards dans ce domaine, a validé la version 2 de l'ADSL et plus récemment sa déclinaison 2+ , qui restent compatibles avec les équipements de l'ADSL premier du nom. Les objectifs de ces nouvelles normes sont multiples. C'est bien évidemment sur la rapidité que l'on attend la nouvelle norme. Mais si les progrès sont réels, ils s'apparentent plus à une évolution de la norme ADSL qu'à une révolution, à la manière du passage du V90 au V92 plutôt que du bond de débit entre USB 1 et 2, par exemple. Jugez un peu: en matière de débits maximaux théoriques descendants (du FAI vers l'utilisateur), l'ADSL 2 permet de s'affranchir de la limite des 8 Mbps pour atteindre désormais 10 Mbps. Ce gain relativement modeste (25%) s'appuie sur des algorithmes de codage et de modulation plus performants. La nouvelle norme ADSL 2+ va bien plus loin dans ce domaine, atteignant les 20 Mbps si la distance abonné-central téléphonique n'excède pas 2,5 kilomètres et dépassant même les 25 Mbps si l'abonné est très proche du central. Ce gain supérieur de l'ADSL 2+ est rendu possible par un changement de la bande fréquence en download. Alors que l'ADSL 2 est plafonné à 1,1 MHz (il existe en fait deux normes, l'une travaillant en 552 KHz et l'autre en 1,1 MHz), l'ADSL 2+ peut monter jusqu'à 2,2 MHz, gagnant ainsi en bande passante. Ces gains de débit seraient bien utiles pour les téléchargements lourds. Ainsi, un téléchargement de 600 Mo de données, réclamant 10 minutes en ADSL, ne demanderait plus que 8 minutes en ADSL 2 et 4 minutes en ADSL 2+. Attention ! Il s'agit là de débits théoriques qui ne seront probablement jamais proposés à l'utilisateur final. ZDnet : http://produits.zdnet.fr/test/81/1/3837.html
|
|
|
|
|
|
|
|
Les systèmes de navigation par satellite ne seront bientôt plus l'apanage de yachtmen fortunés, des routiers internationaux ou des amateurs de contrées reculées. Un groupe d'industriels du matériel et des logiciels de localisation travaillent à démocratiser la technologie pour la rendre disponible sur les assistants personnels (PDA). La navigation "est un problème universel. Vous souhaitez aller d'un point A à un point B et vous ne savez pas où se trouve B. La (technologie de) navigation existe depuis près de 10 ans mais elle a toujours était très onéreuse", explique Harold Goddijn, directeur général du néerlandais TomTom, l'un des plus gros fabricants de logiciels de navigation pour Pocket PC. TomTom ainsi que ses rivaux Garmin, Nexian, Destinator, Pharos, Maptech et NavMan sont les leaders du marché émergent du matériel et des logiciels de localisation, connus sous le nom de Global positioning systems (GPS). Ils ciblent les 13 millions de détenteurs d'assistants personnels (PDA) et comptent sur la vente de 445 millions de téléphones portables cette année, dont les derniers modèles commencent à intégrer des fonctions GPS. Les systèmes de localisation, qui ont coûté jusqu'à 3.000 dollars (2.624 euros), sont beaucoup moins chers aujourd'hui et pourront donner des produits GPS vendus à un peu plus de 100 dollars (87 euros) pour une extension d'un assistant personnel. Les logiciels en eux-mêmes coûtent entre 100 et 200 dollars. TomTom propose par exemple un ensemble récepteur/logiciel/chargeur/socle de voiture pour 350 dollars (306 euros). Le marché de la localisation reste assez confiné, avec des prévisions de ventes pour l'année de quatre millions de récepteurs dédiés, en Europe et aux Etats-Unis. Le nombre total de voitures équipées d'un système de navigation est estimé à 11 millions à travers le monde, selon les statistiques de Standard & Poor's et Tele Atlas, une entreprise israélienne du secteur. Au Japon, plus de la moitié des véhicules qui sortent d'usine possèdent un GPS de série tandis qu'en Europe et aux Etats-Unis le chiffre n'est que d'un pour neuf et généralement sur des modèles de luxe. e marché automobile est à fort potentiel avec des prévisions de ventes mondiales de 55 millions pour l'année 2003. En outre de nombreux opérateurs télécoms testent ces systèmes. "Les opérateurs mobiles pensent que la navigation deviendra un service de masse que tout le monde pourra utiliser. Ils veulent le rendre abordable", estime Boaz Schlesinger, responsable marketing de l'entreprise israélienne Telmap. Les éditeurs de logiciels pour assistants personnels continuent quant à eux à améliorer leurs logiciels, que l'on peut télécharger sur son ordinateur puis mettre à jour sur son PDA à chaque synchronisation. Cette possibilité de mise à jour est un avantage par rapport aux systèmes de navigation pour voiture qui fonctionnent à partir de CD-ROM ou DVD. Reuters : http://fr.news.yahoo.com/030507/85/36ni3.html
|
|
|
|
|
|
|
|
Le ministre chargé de l'enseignement scolaire Xavier Darcos a présenté mercredi dix mesures pour relancer l'utilisation des nouvelles technologies à l'école, afin de disposer d'un ordinateur pour dix élèves dans les écoles en 2007 et d'un pour trois en collèges et lycées. "Il y a un risque de fracture numérique et la puissance publique est là pour éviter qu'il y ait d'un côté des «techno-instruits» et de l'autre des +techno-exclus+", a déclaré le ministre lors d'une conférence de presse. Le plan a prévu un budget de 3 millions d'euros pour encourager l'équipement des écoles primaires dans les communes les moins riches. Un million d'euros doit être consacré à la création d'une agence de maintenance, avec des centres d'appels pour résoudre les problèmes à distance dans chaque académie. "Tout ceci se fera dans le cadre de la décentralisation" a dit le ministre. Il a présenté les "espaces numériques de travail", qui permettront en 2007 à chaque élève, enseignant, et parent, d'avoir son espace personnel d'information et de travail. Grâce à une clé d'entrée pour se connecter, l'élève accédera via internet à son cahier de textes, aux manuels. L'enseignant aura notamment ses notes, l'agenda, les informations administratives. Les parents pourront consulter le carnet de notes de leur enfant ou le menu de la cantine. Un million d'euros seront consacrés à ce projet en 2003. "Cela ne se fera pas du jour au lendemain, mais on y arrivera", a dit M. Darcos. Par ailleurs, 1,5 million d'euros serviront en 2003 à ouvrir l'accès des établissements scolaires à "l'espace numérique des savoirs", sorte de bibliothèque virtuelle géante, créée par l'education nationale pour ses établissements, comportant une multitude d'oeuvres littéraires, cartes, banques de données, archives de l'INA, émissions de télévision, libres de droit. 1.500 établissements seront concernés par le projet en 2003-2004 à titre expérimental. Le taux d'équipement en ordinateurs dans les établissements scolaires est très élevé dans les collèges et lycées mais reste faible dans les écoles maternelles et primaires, selon les dernières statistiques publiées par le ministère de l'éducation nationale. Les lycées professionnels, les mieux équipés, disposent d'un ordinateur pour 4 élèves. Dans les lycées, le taux descend à un ordinateur pour 6 élèves en moyenne et dans les collèges à une machine pour 12 collégiens. En 2000, ces taux étaient respectivement de un pour 5,1 en LP, un pour 6,4 en lycée général et un pour 14 en collège. En 2003, désormais tous les collèges, lycées et lycées professionnels disposent d'accès internet. Le taux d'équipement des écoles primaires reste faible: dans le primaire, on compte un ordinateur pour 20 élèves contre un pour 25 en 2000. En maternelle, on compte une machine pour 25 élèves, soit le même taux qu'en 2000. L'accès internet est encore plus limité: un peu plus de 30 % des écoles primaires en disposent et 14 % des écoles maternelles. AFP : http://fr.news.yahoo.com/030514/1/371n2.html
|
|
|
|
|
|
|
|
Jusqu'à présent, une grande partie du travail de numérisation des documents conservés dans les bibliothèques américaines était effectué manuellement, soit par des étudiants soit à l'étranger par une main d'ouvre de moindre coût. Mais un nouveau robot mis au point par la société suisse 4DigitalBooks pourrait changer ces pratiques. De la taille d'un véhicule utilitaire, la machine est capable de tourner les pages d'un livre et de les scanner à un rythme de 1000 pages par heure, quel que soit le type de livre. Et si deux pages sont jointes, un jet d'air est alors envoyé pour les décoller. Du coup, plus de problème de logistique ou de contrôle de qualité. Cependant, le prix de cette technologie distribuée depuis peu aux Etats-Unis reste élevé et son acquisition n'est rentable qu'au-delà de 5,5 millions de pages numérisées. L'Université Stanford a quant à elle déjà été convaincue. Un robot, fraîchement installé dans les locaux de la bibliothèque, achève deux projets pilotes. Reste le problème du respect du copyright et notamment des nouvelles lois fédérales comme le Digital Millenium Copyright Act de 1998. Une fois numérisée, la consultation des collections de l'Université Stanford pourrait ainsi augmenter de 50 %. NYT 12/05/03 (The evelyn wood of digitized book scanners). NYT : http://www.nytimes.com/2003/05/12/technology/12TURN.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Imaginez un écran d'ordinateur ultra-fin qui peut être plié, tordu et enroulé, tout en restant capable de continuer d'afficher parfaitement un texte. Cet écran est d'une finesse (0,3 millimètre) telle qu'il s'apparente à du "papier électronique". Il affiche des caractères noirs sur un fond blanc-gris avec une résolution semblable à un ordinateur portable classique. Il est tellement flexible qu'on peut le rouler jusqu'à former un cylindre de la taille d'un cigare sans perte de qualité. Même si cet écran est encore en cours de développement et que d'autres sociétés comme Toshiba ou Bell travaillent depuis des années sur le même type de projet, ses créateurs assurent qu'il est le premier de son genre. "Je pense qu'il représente un grand pas en avant. Nous avons réussi à franchir un gros obstacle dans le développement du papier électronique", assure Yu Chen, un chercheur de la société E Ink créée en 1997 à Cambridge (Massachusetts). Chen et ses collègues ont mis au point cet écran flexible large de 7,6 centimètres grâce à une feuille d'acier inoxydable recouverte d'une fine couche de circuits qui contrôlent un film plastique conducteur parcouru par une "encre électronique". Cette encre électronique inventé par un chercheur du MIT est composée de microcapsules remplies d'une substance sombre où flottent des particules blanches électriquement chargées. En fonction du courant, ces particules glissent vers le haut ou le bas des microcapsules. L'oeil humain mélange alors le résultat en voyant les pixels des textes ou des images. L'écran conçu par E Ink comprend deux éléments: une couche supérieure faite de pixels et une couche inférieure faite de transistors qui gèrent chaque pixel de l'écran. Les chercheurs d'E Ink travaillent déjà à une version sans fil et tentent également d'accélérer la vitesse à laquelle l'écran passe d'une "page" de texte à l'autre, ce qui permettra de voir des vidéos. A l'heure actuelle, la vitesse est de 25 dixièmes de secondes et reste trop lente pour la vidéo . Le papier électronique, ou "e-papier", permettra d'afficher des textes, en noir et blanc ou en couleurs, qui pourront être mis à jour par connexion sans fil. On imagine les innombrables applications d'un tel papier ; livres journaux et revues mais aussi plans, listes, modes d'emploi pourront être modifiés, complétés et réactualisés automatiquement, le tout en économisant la grande quantité de bois nécessaire à la fabrication du papier. Un écran aussi léger et fin pouvant se glisser dans une poche pourrait ainsi servir à consulter son compte en banque avant de faire un achat. On pourrait aussi l'intégrer dans des vêtements informatisés qui permettraient de consulter ses mails, d'aller sur le Net ou de regarder des vidéos. Nature du 8-05-2003 : http://www.nature.com/nsu/news.html
|
|
|
|
|
|
|
|
La Commission européenne s'est inquiétée lundi d'un "avenir sombre" pour les perspectives énergétiques mondiales d'ici 2030, qui seront marquées par une forte augmentation des productions de pétrole et de gaz nécessitant des efforts accrus pour la défense de l'environnement. La production pétrolière augmentera d'environ 65% et atteindra 120 millions de barils par jour en 2030, selon une étude commandée par la Commission européenne, publiée lundi. La part de l'Organisation des pays exportateurs de pétrole (Opep) dans cette production augmentera pour passer à 60% des approvisionnements totaux en pétrole contre 40 % en 2000. Quant à la production de gaz, elle devrait "probablement" doubler d'ici 2030. Les prix du pétrole comme du gaz connaîtront d'ailleurs une "hausse sensible", poursuit cette étude, selon laquelle le prix du baril de pétrole en 2030 passera à 35 euros. Intitulée "Perspectives pour la politique mondiale concernant l'énergie, la technologie et le climat" (WETO, World Energy, Technology and Climate Policy Outlook), l'étude recense les défis auxquels doit s'attendre la communauté internationale dans le domaine énergétique. Plusieurs équipes de chercheurs ont participé à sa réalisation et notamment le Centre national français de la Recherche Scientifique (CNRS), l'Institut d'économie et de politique de l'Energie à Grenoble (France), ainsi que le Bureau fédéral du Plan (Belgique). La demande énergétique mondiale augmentera d'environ 1,8 % par an entre 2000 et 2030. Plus de la moitié de cette demande proviendra des pays en voie de développement, contre 40% à l'heure actuelle. L'industrie constituera 35 % de la demande énergétique, les transports 25 % et les services et les ménages 40 %. Sur le plan de l'environnement, cette augmentation de la demande énergétique aura pour conséquence une croissance de 2,1 % par an en moyenne des émissions de CO2. Les émissions mondiales de CO2 atteindront 44 milliards de tonnes d'ici 2030. Selon l'étude, les émissions de CO2 européennes auront augmenté de 18 % par rapport aux niveaux de 1990, mais de 50 % aux Etats-Unis. Les émissions de C02 des pays en voie de développement représentaient 30 % du total mondial en 1990, mais en représenteront plus de la moitié en 2030. L'étude considère qu'avec cette augmentation prévue de la production énergétique, l'utilisation de nouvelles sources d'énergie est devenue d'autant plus nécessaire, si l'Europe veut remplir ses objectifs en matière de réduction des émissions de gaz à effet de serre. Ces émissions sont à l'origine du réchauffement de la planète. L'étude estime ainsi que les coûts de la réalisation des objectifs du protocole de Kyoto "pourraient être réduits dans une proportion pouvant aller jusqu'à 30% si on utilisait à grande échelle des sources d'énergie nucléaires ou renouvelables". Conclu en décembre 1997 sous l'égide de l'ONU, le protocole de Kyoto demande aux (seuls) pays industrialisés (y compris la Russie) de réduire de 5,2 % en moyenne d'ici à 2012 leurs émissions par rapport à 1990. Commission européenne : http://europa.eu.int/rapid/start/cgi/guestfr.ksh?p_action.gettxt=gt&doc=IP/03/66...|0|RAPID&lg=FR&display
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Le Japon a lancé le 9 mai dans l'espace la fusée M-5 dans le cadre d'un ambitieux programme sur quatre ans et demi ayant pour objectif de prélever pour la première fois des échantillons d'astéroïdes. Si la mission réussit, ce sera la première fois que des échantillons prélevés dans l'espace seront rapportés sur Terre depuis le projet américain Apollo il y a trente ans qui avait ramené des pierres de la lune. La fusée M-5, de taille moyenne, transportant le module MUSES-C, a décollé comme prévu à 13H29 locales (04H29 GMT) du Centre spatial de Kagoshima près de la ville de Uchinoura, dans le sud du pays. Sept minutes après son lancement, la fusée M-5 devait placer le module sur une "orbite de transfert" afin qu'il puisse ensuite entamer une longue boucle à travers la ceinture d'astéroïdes entourant le système solaire. Le module est censé ensuite se diriger vers 1998SF36, la ceinture d'astéroïdes entre Mars et Jupiter, dont les scientifiques estiment qu'elle mesure 500 mètres de long. Elle est située à 300 millions de kilomètres de la terre et il devrait falloir deux ans à MUSES-C pour l'atteindre. Le projet, qui devrait être le premier voyage aller-retour au monde vers une astéroïde, a été développé par l'Institut de l'espace et de science aéronautique (ISAS) du ministère de l'Education et de la Science. L'Inde pour sa part a testé avec succès le 8 mai son lanceur de satellite GSLV (Geosynchronous Satellite Launch Vehicle) pour la seconde fois en deux ans jeudi.Le GSLV-D2, qui transportait un satellite expérimental de communication de 1.825 kilogrammes, le GSAT-2, a décollé à 16h58 (11h28 GMT) du centre spatial Sathish Dhawan à Sriharikota, dans l'Etat d'Andhra Pradesh (sud-est de l'Inde). Le GSAT-2 a été placé sur orbite avec succès 998 secondes après le décollage, selon des responsables du programme spatial indien. "C'est une source de grande fierté pour tous les Indiens et un nouveau jalon dans l'espace pour l'Inde", a déclaré le Premier ministre, Atal Behari Vajpayee, sous les applaudissements au parlement de New Delhi. Le lanceur de satellite GSLV avait été testé pour la première fois avec succès en avril 2001. Il avait placé sur orbite un satellite expérimental de 1.540 kilogrammes. L'Inde aspire à entrer dans le petit club des pays capables de lancer des satellites commerciaux. AFP : http://fr.news.yahoo.com/030509/202/36qd6.html
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
L'ancien directeur du Fonds monétaire international Michel Camdessus a chiffré mercredi à 100 milliards de dollars la facture pour fournir de l'eau potable à tout le monde sur la terre, dans une intervention à Rome. Plus d'un milliard de personnes n'ont actuellement pas accès à l'eau propre, a-t-il rappelé durant une réunion du Comité de sécurité alimentaire mondiale, à l'Organisation des Nations Unies pour l'agriculture et l'alimentation (FAO). 100 milliards de dollars supplémentaires sont nécessaires, a-t-il dit, selon un communiqué. M. Camdessus a conseillé en particulier aux pays en développement de doubler l'aide publique dans ce domaine, suggérant aussi qu'ils rendent publics leurs programmes de lutte contre le manque d'eau potable. Le Comité de sécurité alimentaire mondiale est réuni cette semaine pour sa 29ème session. Il s'occupe des stratégies contre la faim dans le monde. Recherche : http://www.larecherche.fr/actu/n030514160449.fszlg0n2.html
|
|
|
|
|
|
|
|
La pêche industrielle a provoqué une baisse de 90% des stocks de grands poissons marins comme le thon, l'espadon et le marlin qui prospéraient dans les océans du globe il y a encore un demi-siècle, affirme une étude publiée jeudi par la revue scientifique "Nature".Ce constat alarmant se fonde sur près de 50 ans de données scientifiques. "Il s'agit de la première analyse à montrer un déclin général et prononcé de populations entières (de grands poissons) dans des écosystèmes très divers", avertissent les chercheurs Ransom Myers et Boris Worm, de l'université Dalhousie au Canada. "La majorité des scientifiques et des responsables ne sont peut-être pas conscients de la véritable ampleur du changement dans les écosystèmes marins", ajoutent les auteurs de l'étude. Myers et Worm ont découvert qu'il fallait généralement moins de 15 ans aux grandes sociétés de pêche industrielle pour éliminer 80% des stocks dans un nouveau site de pêche. Ransom Myers, un professeur de biologie marine, a commencé l'étude il y a un an, collectant des données uniquement pour les poissons pouvant être mis en conserve. Un exemple illustre le déclin des espèces: la pêche à la palangre, longue ligne utilisée en pleine mer à laquelle sont attachés de nombreux hameçons, qui est pratiquée pour prendre le thon, la marlin et l'espadon. Ces lignes s'étirent sur des kilomètres et de nombreux autres poissons mordent aux appâts. Les données compilées portent sur la pêche à la palangre au Japon entre 1952 et 1999. Juste après la Seconde Guerre mondiale, alors qu'aucune espèce n'était apparemment victime de la surpêche, les Japonais prenaient en moyenne 10 poissons pour 100 hameçons. Aujourd'hui, ils ont de la chance s'ils en attrapent un seul pour le même nombre d'hameçons, souligne Myers. Michael Sissenwine, un spécialiste de la pêche à l'Administration nationale américaine des océans et de l'atmosphère (NOAA), convient que la pêche peut provoquer une baisse rapide des ressources halieutiques, mais il estime qu'il faut rester prudent sur les conclusions à tirer. "Il n'y a rien qui nous assure que les données (de l'étude) sont représentatives de toutes les populations de poisson dans le monde", dit-il, ajoutant que la pêche commerciale réduit habituellement la population d'une espèce d'au moins 50 %. En outre, le déclin des grands poissons n'est peut-être pas irréversible. Une plus stricte gestion des ressources depuis 1999 a permis aux espadons de l'Atlantique Nord de reconstituer 94 % de leurs effectifs, qui était auparavant à 65% de son niveau normal, selon la Commission internationale pour la conservation des thonidés de l'Atlantique. Daniel Pauly, un expert basé au Canada, souligne toutefois que la nouvelle étude est importante parce qu'elle fournit des données exceptionnellement complètes illustrant les lacunes de la gestion des ressources marines. En 1994, une estimation de l'organisation des Nations unies pour l'alimentation et l'agriculture (FAO) affirmait déjà que près de 70% des stocks de poissons marins étaient victimes de surpêche ou totalement exploités. Un sommet de la terre sous l'égide de l'ONU l'an dernier en Afrique du Sud a appelé à la reconstitution des réserves mondiales d'ici 2015. Les Pr Myers et Worm espèrent que leurs données serviront de guide pour parvenir à cet objectif. Barbara Block, une biologiste marine de l'université de Stanford en Californie, compare le déclin des grands poissons victimes de la pêche à celui des baleines au siècle dernier. "L'étude montre la réalité de ce qui se passe dans les océans. Nous sommes en train de prélever systématiquement les grands carnivores de la mer." "Voulons-nous un monde sans requin blanc et sans thon géant ?", demande-t-elle, en citant deux exemples d'espèces en déclin. "La pêche industrielle est en train de faire ce choix pour toute l'humanité." Nature : http://www.nature.com/nature/links/030515/030515-1.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs ont réussi à modifier génétiquement un virus de façon à lui faire prendre pour cible des tumeurs cérébrales, réussissant à éliminer ce cancer lors d'expériences réalisées sur des souris, selon une étude américaine. La recherche menée au Centre de recherche sur le cancer de l'Université du Texas à Houston (sud) a permis de tester avec succès une thérapie qualifiée "de bombe virale intelligente", permettant d'éradiquer entièrement des tumeurs cérébrales chez les souris, sans endommager les cellules en bonne santé. Cette méthode appelée Delta-24-RGD est présentée par les chercheurs comme le premier traitement efficace contre le gliome malin, la forme la plus grave de cancer du cerveau, actuellement incurable. La technique met en oeuvre un adénovirus de la famille de ceux qui provoquent un rhume, modifié génétiquement pour contaminer une tumeur et tuer les cellules cancéreuses. Les résultats de l'étude, publiés dans la revue américaine Journal of the National Cancer Institute daté du 7 mai, sont jugé si prometteurs que ce centre de recherche a décidé de financer la mise au point d'un traitement utilisant la technique pour être testé sur l'homme, d'ici la fin 2004. "Nous pensons que cette thérapie a un important potentiel, qui demande encore beaucoup de travail", a estimé l'auteur principal des travaux, le Dr Juan Fueyo, en précisant n'avoir "jamais vu auparavant ce genre de réponse avec aucun autre traitement testé sur l'animal ou l'homme". Le virus utilisé est modifié génétiquement pour ne pouvoir se répliquer qu'à l'intérieur de la tumeur, et non au sein de cellules saines. Il contamine la cellule cancéreuse et la tue après s'être reproduit dans la cellule voisine. Lorsque toutes les cellules cancéreuses sont détruites, le virus meurt lui aussi. Journal of the National Cancer Institute du 7-05-2003 : http://jncicancerspectrum.oupjournals.org/cgi/content/full/jnci;95/9/633
|
|
|
|
|
|
|
|
Le cannabis, comme le tabac, peut avoir de sérieuses conséquences sur la santé, rappelle un éditorial du British Medical Journal. Toutefois, il ne semblepas exister de discours clair et exhaustif sur les risques et les conséquences de la consommation de cannabis en Angleterre. Dans ce contexte, il serait souhaitable de présenter en parallèle les dangers du cannabis et du tabac. Les principaux effets négatifs du cannabis sont souvent présentés sous un angle psychologique en mettant également l'accent sur les problèmes cognitifs et mnésiques. Toutefois, les conséquences globales ne peuvent plus être ignorées si l'on considère le nombre de consommateurs. Ainsi, entre 1999 et 2001, le nombre d'adolescents anglais de 14-15 ans qui ont fumé du cannabis est passé de 19 % à 29 % chez les garçons et de 18 % à 25 % chez les filles. On estime que 3,2 millions de personnes fument du cannabis en Grande-Bretagne. La consommation régulière de cannabis est associée à un risque plus élevé de maladie mentale telle que la schizophrénie et la dépression, note cet éditorial du British Medical Journal. La bronchite chronique, l'emphysème et d'autres troubles pulmonaires font aussi partie des conséquences du cannabis, souvent chez les jeunes. Certains cancers des poumons et de la langue ont également été décrits chez les fumeurs de cannabis. Enfin, de la même façon que le tabac, le cannabis contribue à la progression de la maladie coronarienne. Si l'on estime que le cannabis a les mêmes effets que les cigarettes, il y aurait un excès de 30.000 décès par an chez les 3,2 millions de consommateurs anglais de cannabis. Si les effets sont moins marqués, il constitue néanmoins un réel problème de santé publique qui mérite une évaluation claire et détaillée. BMJ : http://bmj.com/cgi/content/full/326/7396/942
|
|
|
|
|
|
|
|
On peut désormais prévenir les accidents cardio-vasculaires chez les sujets à haut risque, et sauver ainsi de nombreuses vies. Une vaste étude publiée dans The Lancet, la Heart Protection Study (HPS), vient d'en apporter la preuve. Ses résultats sans précédent ont des implications majeures en termes de santé publique. Une étude originale, vraiment. Réalisée à la demande du National Health Service britannique, qui a d'ailleurs participé à son financement. L'objectif était d'évaluer la réalité du bénéfice apporté par la simvastatine, traitement hypocholestérolémiant de référence et aussi la première des statines mises au point. Plus de 20 000 patients recrutés dans 69 hôpitaux britanniques ont été suivis pendant plus de 5 ans, et comparés contre placebo. La cohorte était exceptionnelle par sa taille, mais aussi par la variété des populations étudiées. Les investigateurs n'ont laissé personne dans l'ombre. Toutes les populations où ce type de traitement n'avait pratiquement jamais été évalué ont été étudiées : patients souffrant d'angine de poitrine, de diabète ou d'artérite, malades avec des antécédents d'accidents vasculaires cérébraux et même... des femmes, une population inexplicablement négligée depuis des années. Peut-être au motif qu'elles seraient protégées des maladies cardiovasculaires, au moins jusqu'à la ménopause ? Quoi qu'il en soit les résultats sont éloquents : sur 5 ans par rapport au placebo, la baisse de mortalité a été estimée à 13 % au total, et de 18% pour les décès par maladie coronaire. Par ailleurs, les auteurs ont observé une réduction de 25 % du risque d'infarctus du myocarde, d'accident vasculaire cérébral et d'artérite des membres inférieurs. Au CHU Henri Mondor de Créteil, près de Paris, le Pr Alain Castaigne affirme que « ces bénéfices concernent tous les types de sujets inclus dans l'étude, quels que soient leur sexe et leur âge (au-dessous de 80 ans), et quel que soit leur taux de cholestérol initial, même s'il est normal ou bas. Les résultats de cette étude élargissent considérablement les indications de la simvastatine. Elles s'étendent désormais aux sujets dont le cholestérol avant traitement est normal ou bas, qu'il s'agisse de non diabétiques ayant des antécédents cardiovasculaires ou de diabétiques sans antécédents cardio-vasculaires pour peu qu'ils présentent des facteurs de risque surajoutés : un âge supérieur à 65 ans, une hypertension artérielle, un tabagisme ou une insuffisance rénale. Soit pratiquement les trois-quarts des diabétiques ». Grâce aux résultats de cette étude, de nombreux malades qui ne bénéficiaient d'aucun traitement faute d'indication vont désormais pouvoir être pris en charge. Ainsi les auteurs d'HPS évaluent-ils à environ un tiers la diminution du nombre d'accidents cardiovasculaires, mortels ou non, que l'on peut en attendre. A titre d'exemple, dans un pays comme la France nous enregistrons chaque année 150 000 accidents vasculaires cérébraux et plus de 120 000 accidents cardiovasculaires ! Lancet : http://www.thelancet.com/search/search.isa MRC : http://www.mrc.ac.uk/prn/index/public-interest/public-news/public-heart_protecti...
|
|
|
|
|
|
|
|
Des chercheurs allemands ont modélisé la protéase du coronavirus tenu pour responsable du syndrome respiratoire aigu sévère (SRAS), dans le but de mettre au point un médicament empêchant le virus de se propager dans l'organisme, selon des travaux publiés mardi aux Etats-Unis. L'objectif des chercheurs est de mettre au point un inhibiteur de la protéase, type de médicament qui bloque l'activité de la protéase du coronavirus et empêche donc le virus de se reconstituer et d'infecter d'autres cellules. Cette méthode est déjà utilisée dans des médicaments contre le sida. La protéase est une enzyme impliquée dans la réplication du virus. Pour modéliser cette protéase, les chercheurs ont étudié la structure d'une enzyme (dont le nom de code est 229E) présente dans le coronavirus humain responsable du rhume et une autre enzyme d'un coronavirus porcin. Contre le SRAS, les auteurs de la recherche suggèrent une première piste de travail constituée par une molécule appelée "AG7088", qui fait déjà l'objet d'essais cliniques contre le rhinovirus, cause fréquente du rhume. Ils estiment que cette molécule est une bonne base de départ pour la mise au point d'un prototype d'inhibiteur de protéase contre le SRAS, en raison des similarités entre les protéases du rhinovirus et du coronavirus. Les travaux, publiés dans la revue Science, ont été dirigés par Rolf Hilgenfeld, de l'Institut de biochimie de l'Université de Lübeck, entouré d'autres chercheurs de l'Institut de biotechnologie moléculaire de l'Université de Jena et de l'Institut de virologie et d'immunologie de l'Université de Würzburg, en Allemagne. Science : http://sciencenow.sciencemag.org/cgi/content/full/2003/513/2
|
|
|
|
|
|
|
|
Les dépenses de santé associées à l'obésité et au surpoids approchent désormais celles associées au tabagisme aux Etats-Unis, selon une étude publiée le 14 mai, réalisée par trois économistes. Ces dépenses ont représenté 9,1 % des dépenses de santé annuelles totales aux Etats-Unis en 1998, totalisant 78,5 milliards de dollars (92,6 milliards en valeur 2002). Les dépenses associées au tabagisme sont comprises entre 6,5 et 14 % du total des dépenses de santé, une estimation qui varie selon les sources précisent les auteurs de l'étude. Plus de la moitié des Américains sont obèses ou en surpoids. En une décennie, la prévalence de l'obésité s'est accrue de 70 %, précise le rapport publié sur le site internet de la revue américaine Health Affairs. Les dépenses de santé d'un adulte obèse de moins de 65 ans sont supérieures de 395 dollars par an (36%) à celles d'une personne de poids normal. Le secrétaire américain à la Santé, Tommy Thompson, a appelé mardi les grandes chaînes de restauration rapide à "prendre les bonnes mesures pour les Américains" en proposant des repas plus équilibrés, dans un entretien accordé à CNN. L'étude a été menée par les économistes Eric Finkelstein et Ian Fiebelkorn de la société RTI International à Research Triangle Park (Caroline du Nord) et Guijing Wang, des Centres de contrôle et de prévention des maladies à Atlanta (Géorgie). Health Affairs : http://www.healthaffairs.org
|
|
|
|
|
|
|
|
Des cellules souches adultes de muscle peuvent protéger contre la paralysie progressive frappant des animaux souffrant d'une forme de myopathie d'origine génétique, tout en multipliant par huit leur espérance de vie, montrent pour la première fois des chercheurs français de l'Inserm coordonnée par Judith Melki (neurogénétique moléculaire, université d'Evry-Val d'Essonne). Ces résultats apportent "la première preuve" des remarquables capacités de "réparation" des cellules souches du muscle dans le cas d'atteintes musculaires graves, proches d'une maladie humaine, l'amyotrophie spinale progressive. Ces résultats remarquables ont été obtenus grâce à une technique qui induit la mutation génétique non pas seulement dans un tissu donné, mais aussi à un moment donné du développement des cellules. Dans le muscle donc, mais aussi au stade des cellules souches et non des cellules déjà différenciées. D'après les auteurs, ces cellules souches adultes du muscle améliorent la survie par un facteur 8, ainsi que les performances motrices des animaux. Même lorsqu'ils souffrent d'atteintes musculaires graves. Chez l'adulte, en cas de blessure musculaire, le muscle formé de fibres se reconstitue grâce à des cellules souches adultes, également appelées cellules satellites car elles gravitent autour des fibres musculaires. Pour la démonstration, les chercheurs ont créé deux groupes de souris transgéniques, porteuses d'une mutation (défaut) du gène "Smn" responsable d'amyotrophies spinales, soit dans les fibres musculaires et les cellules satellites, soit uniquement dans les fibres musculaires matures. "L'amyotrophie spinale est la plus fréquente des maladies génétiques après la mucoviscidose (maladie touchant essentiellement la fonction respiratoire). Une personne sur 35 est porteuse du défaut génétique. Cette myopathie se transmet lorsque les deux parents sont porteurs, le risque d'avoir un enfant atteint étant alors d'un sur quatre", indique Judith Melki. Globalement "la maladie touche un enfant sur 5.000 naissances dans toute l'Europe", évalue-t-elle. Les souris dont les cellules souches ont le gène défectueux font une maladie très sévère : paralysie motrice progressive associée et survie d'un mois. En revanche, chez celles dont les cellules souches sont intactes, la maladie est très atténuée : la survie est de 8 mois, et grâce à une régénération très active, avec jusqu'à 40 % du nombre total des fibres musculaires reconstituées, aucun déficit musculaire n'est observé. Mais cette régénération de la force et de la masse des muscles finit malheureusement par s'affaiblir avec le temps. Ces travaux démontrent néanmoins la capacité des cellules souches à contrecarrer une myopathie progressive."Nous devons tester différentes voies d'administration des cellules souches musculaires, notamment par voie intraveineuse, pour tenter de délivrer ces cellules à tous les muscles d'un organisme", a toutefois précisé Judith Melki. "Ce n'est qu'une fois que les chercheurs arriveront à les administrer à tous les muscles que l'on connaîtra les potentialités de ces cellules". Journal of Cell Biology du 12-05-2003 : http://www.jcb.org/
|
|
|
|
|
|
|
|
Une équipe de chercheurs français annonce avoir mis en évidence chez les espèces de moustiques transmettant le paludisme et la fièvre du Nil, une mutation unique qui leur confère une résistance aux principaux insecticides. Une découverte selon eux cruciale pour lutter contre les nombreux moustiques résistants. "Il s'agit là d'un enjeu sanitaire et économique majeur", ont souligné dans un communiqué les chercheurs montpelliérains de l'équipe de Mylène Weill, chercheur à l'Institut des sciences de l'évolution du Centre national de la recherche scientifique à l'Université Montpellier II. "Il est comparable à la recherche pharmaceutique en infectiologie, qui lutte sans cesse pour trouver de nouvelles classes d'antibiotiques capables de contourner les multiples résistances aux microbes apparaissant à la suite de l'utilisation intensive des anciennes familles d'antibiotiques". La majorité des insecticides utilisés dans la lutte contre les moustiques pour ralentir la transmission des maladies à l'homme sont des composés qui inhibent une enzyme, l'acétylcholinestérase (AChE). Or, depuis un certain nombre d'années, des résistances à ces pesticides dues à une modification de l'AChE apparaissent chez les moustiques. Récemment, le gène d'acétyl cholinestérase impliqué dans ces résistances a été identifié et nommé ace-1. Les chercheurs ont analysé sur ce gène la nature des mutations responsables de la résistance chez Culex pipiens, le virus responsable de la fièvre du Nil, originaire de 10 pays d'Amérique, d'Europe et d'Afrique, et chez Anopheles gambiae de Côte d'Ivoire, le moustique responsable du paludisme. Les résultats ont indiqué qu'une même mutation était présente dans le gène ace-1 des différentes espèces de moustique. Cette mutation ponctuelle (correspondant au remplacement d'un maillon par un autre dans la chaîne ADN), conduit à la production d'une protéine dans laquelle un acide aminé est remplacé par un autre. Des tests in vitro, réalisés sur des cellules en culture, ont confirmé que cette mutation était bien responsable de la résistance aux pesticides employés. Cette mutation ayant été retrouvée parmi la majorité des populations de moustiques couvrant le globe, les chercheurs pensent tenir là une clé essentielle de l'origine des résistances des moustiques aux insecticides, voire d'autres résistances de la part d'insectes différents comme les pucerons. "Ces travaux sont fondamentaux pour la mise au point de nouvelles stratégies de lutte contre ces insectes, comme par exemple la fabrication de nouveaux insecticides capables d'inhiber spécifiquement l'acétylcholinestérase mutée", ont-ils estimé. L'équipe de Mylène Weill vient d'ailleurs de déposer un brevet concernant l'AchE mutée en cause dans la résistance des moustiques, pour trouver de nouvelles molécules capables d'inhiber l'action de cette enzyme. AP : http://fr.news.yahoo.com/030509/5/36rdi.html
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Le projet de réforme de la recherche publique que le Conseil stratégique de l'innovation (CSI) soumet cette semaine au gouvernement est une bombe. Ce groupe de réflexion, présidé par le docteur Philippe Pouletty, président de France Biotech, auquel participent d'éminentes personnalités scientifiques, propose une remise à plat des modes de financement de la recherche publique et des statuts de ses personnels. Une réforme qui, si elle était appliquée en l'état, serait sans doute l'une des plus importantes depuis la création du CNRS en 1939 et la loi Chevènement de 1982. Les membres du CSI, qui ont adopté ce projet à l'unanimité, partent du constat que la recherche publique française a de nombreux atouts à faire valoir, à commencer par l'excellence de ses chercheurs. Mais elle a aussi l'inconvénient d'être «figée», «vieillissante» (la moyenne d'âge des chercheurs est proche de 50 ans), «mal évaluée» et surtout «mal financée». Pour faire de la France la première nation scientifique européenne en 2007, et soutenir ainsi durablement l'innovation, la croissance économique et l'emploi, le CSI recommande au gouvernement de promettre rien moins qu'un «doublement en cinq ans du financement de la recherche publique, parallèlement à l'adoption de la réforme». Celle-ci prévoit la création de «sept à dix fondations nationales de recherche (FNR)» consacrées chacune à un domaine prioritaire dont la liste et les intitulés précis restent à définir. Le CSI avance toutefois un certain nombre de thèmes comme «sciences de la vie, biotechnologies et santé», «nanotechnologies et électronique», «environnement et énergies nouvelles», «mathématiques, chimie et physique», «sécurité et défense», «informatique», «terre, univers et aérospatial», «sciences humaines et sociales». L'une de ces FNR, baptisée «sciences nouvelles et transversales» serait entièrement dédiée aux projets scientifiques hors normes ou très innovants. Jouissant d'une «large autonomie de gestion et de décision», avec à leur tête, un directeur-général nommé en Conseil des ministres pour cinq ans, assisté d'un conseil scientifique international, les fondations se verraient confier tout ou partie (dans une proportion qui reste à définir) de la dotation que l'Etat verse aux EPST (1), comme le CNRS, l'Inserm (recherche médicale) ou l'Inra (recherche agronomique), et aux laboratoires universitaires pour financer leurs projets de recherche. Elles seraient également alimentées par des fonds européens (6e PCRD), des contrats industriels, des revenus de licence ainsi que par des dons et legs dont le volume devrait croître fortement grâce à de nouvelles incitations fiscales. Le projet de loi sur les fondations voté en première lecture par l'Assemblée nationale, le 1er avril dernier, permet en effet aux particuliers et aux entreprises de déduire de leur impôt 60 % des sommes versées (contre 30 % actuellement) avec un relèvement significatif des plafonds. De quoi faire sans doute aussi bien que la Bill Gates Fundation ou le Welcomme Trust qui drainent chaque année des dizaines milliards de dollars vers les laboratoires américains et britanniques... Dotées de ressources importantes, les FNR auraient pour principale mission de financer des projets de recherche fondamentale et appliquée, sélectionnés par appel d'offres sur le seul critère de l'«excellence», et d'en assurer la valorisation ultérieure (brevets, licences). L'évaluation de ces nouveaux projets (et des résultats des projets financés antérieurement) serait effectuée par des commissions indépendantes composées pour moitié de scientifiques étrangers, notamment européens. Pour le CSI, ce système aurait pour principal avantage de «dynamiser et de mettre en concurrence les laboratoires, de rémunérer les chercheurs à un niveau international compétitif et d'inciter au rajeunissement des équipes de recherche». Le second volet de la réforme suggère en effet une refonte complète des statuts des personnels avec l'instauration de trois échelons communs aux EPST et aux universités : chercheur sur CDD de 2, 3 ou 5 ans, professeur assistant (entre 30 et 40 ans) et professeur (à partir de 40 ans). Les passerelles entre organismes, universités, CHU, entre laboratoires de recherche publics et privés, français et européens, entre carrières de chercheur et d'enseignant, seraient simplifiées pour encourager la «mobilité». L'appartenance à la fonction publique serait maintenue mais l'âge de la titularisation, qui est de 31 ans maximum aujourd'hui dans les EPST, pourrait intervenir une dizaine d'années plus tard (notamment dans certains domaines comme les sciences de la vie) avec l'obtention du grade de professeur, voire de professeur-assistant. Grâce aux CDD - qui viendraient se substituer aux actuels stages postdoctoraux précaires et mal payés - et aux compléments de rémunérations financés par les FNR, les chercheurs pourraient percevoir, tout au long de leur carrière, «en fonction de leurs performances», des salaires très supérieurs à ce qu'ils touchent aujourd'hui (1 500 Û net après bac + 8 ou 10 pour un chargé de recherche débutant...). Le CSI espère ainsi pouvoir enrayer la fuite des cerveaux et attirer dans le même temps des chercheurs étrangers, notamment américains (deux à trois fois mieux payés à qualification égale) dans les laboratoires français. Et les EPST dans tout ça ? Leur rôle se limitera-t-il à la gestion des carrières des personnels et des infrastructures ? Auront-ils encore les moyens de mener une politique de recherche propre ? Ces questions hautement sensibles ne sont pour l'instant pas tranchées. Figaro : http://www.lefigaro.fr/sciences/20030512.FIG0183.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|