|
|
Edito
Le Gouvernement s'honorerait à retirer, sans retard, son projet de circulaire d'application de l'Article L1511-6 du CGCT
Le Comité Interministériel d'Aménagement du Territoire (CIADT) qui s'était réuni à Limoges le 9 juillet 2001 sous l'autorité du Premier Ministre, avait solennellement déclaré que les collectivités locales devaient devenir les aménageurs numériques du Territoire. Emporté par son lyrisme, le Gouvernement avait même promis que le haut débit devait être accessible pour tous avant 2005. C'est mal parti. Et pourtant, avalant son chapeau, l'Assemblée nationale avait décidé le 17 juillet 2001, pour être en cohérence avec le Gouvernement, de revenir sur son triste amendement dit des « fibres noires » du 25 juin 1999, fortement inspiré, chacun le sait, par le lobbying de France Télécom. Pour mettre en oeuvre ce nouvel amendement qui doit faciliter l'intervention des Collectivités locales dans le domaine des Télécommunications en supprimant le constat de carence prévu dans le Loi de Juin 1999 , chacun attend, avec impatience, un décret qui doit permettre d'organiser le financement public d'infrastructures destinées à supporter le réseau de télécommunications et précisant les zones qui seront concernées par ce financement. Et patatras. Toujours pas de décret mais, par contre, est mis en ligne sur Internet en février 2002 un projet de circulaire qui soulève un réel tollé car ce projet va bien au-delà de la volonté exprimée par le législateur et instaure de nombreuses règles et contraintes non prévues ou imaginées par le Parlement. Le Gouvernement ferait bien de remettre, sans retard, de l'ordre dans sa maison et de faire en sorte que les textes d'application respectent la volonté du législateur. Pour le décret, le Gouvernement devra être à la fois volontaire et réaliste. Il serait incohérent et contre-productif que la publication de ce décret soit l'occasion de dresser une carte des ghettos numériques de la France. En effet, jamais un opérateur privé qui doit rendre compte à ses actionnaires n'ira dans des régions où il n'y aurait aucune chance, même au niveau de l'exploitation, de trouver un jour l'équilibre financier. Dans ce cas là, même des aides « mirobolantes » à l'investissement ne seraient pas assez incitatives pour faire boire un âne qui n'a pas soif. C'est pourquoi, rejoignant en cela l'avis de l'Association des Départements de France, je pense que le territoire départemental est le seul qui soit pertinent pour être le chef de file des aménageurs numériques du territoire. Non pas parce que les Départements, depuis deux siècles, ont réalisé tous les grands réseaux de France : réseau routier départemental, maillage local du réseau ferré, réseaux d'eau, réseau électrique de basse tension et même réseau hertzien du téléphone dans les années 1970 mais parce que c'est la bonne échelle où peut s'exprimer la solidarité de proximité. Cette solidarité de proximité, quand nous parlons de l'investissement, ne peut s'exprimer au niveau communal car les communes riches et denses peuvent se numériser sans avoir recours aux subventions alors que les communes rurales et pauvres ne peuvent rien faire sans aides. Il faut donc que le Décret reconnaisse aux Départements la capacité de faire jouer la solidarité entre ses zones riches et ses zones pauvres pour ces aménagements numériques. Si l'ensemble d'un Départements est trop pauvre, il faudra alors que la solidarité régionale puisse s'exprimer et l'Etat ne devra pas être absent de cet effort important d'aménagement du territoire. Il devra traiter le problème avec équité et, dans le cadre d'une profonde révision des contrats Etat - Région, il devra faire en sorte que l'engagement pris pour que tous les Français puissent accéder au haut débit soit tenu. Mais au-delà de ce décret qui est attendu avec impatience par tous les acteurs, le Gouvernement s'honorerait à retirer, sans retard, son regrettable projet de circulaire. En effet, comment le Premier Ministre a-t-il pu apposer son nom au bas d'un projet qui manifestement a, directement ou indirectement, été rédigé par ceux qui avaient été marris de voir l'Assemblée nationale revenir sur l'amendement scélérat, tant il a retardé l'équipement numérique de la France, du 25 juin 1999 ? Ce comportement pourrait légitimement inciter le législateur à demander au Gouvernement de faire respecter la Loi. Une loi dite Loi de Libéralisation des Télécoms a été votée en 1996. Or, l'opérateur dominant n'applique qu'en traînant les pieds cette Loi après avoir souvent, trop souvent, voulu au préalable épuiser toutes les voies de recours. Si cela continue ainsi, le législateur pourrait être amené à prévoir des mesures qui obligeraient tous les opérateurs à respecter strictement la Loi. Ceux-ci pourraient, bien entendu, continuer à faire auprès des tribunaux tous les recours prévus par la Loi mais, en raison de l'urgence et de l'importance de l'équipement numérique de la France, une autorité incontestable désignée par la Loi dans chaque département pourrait obliger les opérateurs à s'exécuter sans retard. En effet, trop nombreux et trop irritants sont les cas, en France, qui nous sont rapportés, où France Télécom multiplie les obstacles pour empêcher le développement d'une réelle concurrence sur la boucle locale et ce, malgré une volonté clairement exprimée par le législateur. Cela ne peut plus continuer ainsi. Après la publication du décret qui, nous l'espérons, doit être proche maintenant, le Gouvernement devra préparer une nouvelle circulaire précisant les règles d'application de l'article L.1511-6 du CGCT. Dans cette nouvelle rédaction, le Gouvernement devra être particulièrement vigilant pour que les Collectivités locales respectent la neutralité technologique dans leurs choix d'investissements. Il serait inopportun et regrettable de les inciter, comme le fait le regrettable projet mis en ligne en février, à privilégier les investissements en fibre optique ou en coaxial. Chaque personne un peu avertie sait en effet qu'il ne serait pas économiquement raisonnable de couvrir l'ensemble de notre Pays avec ces seules technologies. Nous savons bien que des technologies radio seront précieuses pour couvrir, en particulier, les territoires peu habités. Cela révèle l'archaïsme de certaines démarches administratives françaises quand nous constatons que les rédacteurs du regrettable projet de circulaire auraient voulu interdire aux collectivités locales de lancer des expérimentations dans des approches technologiques radio tout à fait novatrices et séduisantes telles que le Wifi ... Dans cette aventure du numérique, les Collectivités locales doivent initier, faciliter et accompagner ces opérations fondamentales d'aménagement. Laissons-leur la liberté d'accomplir cette belle mission. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Près d'un demi milliard de personnes dans le monde disposaient d'une connexion internet à domicile à la fin de l'an dernier, a déclaré Nielsen/NetRatings. Selon la société d'études d'audience sur internet, 498 millions de personnes pouvaient surfer sur le web à domicile à la fin 2001, soit 5,1% qu'au troisième trimestre. Les Asiatiques sont toujours les premiers en termes de croissance des taux de connexion, l'accès au web depuis leur domicile progressant de 5,6 % dans les trois derniers mois de l'année par rapport au trimestre précédent. Ils sont suivis par les Européens, avec des connexions en hausse de 4,9 %, et les internautes d'Amérique Latine et des Etats-Unis, avec des taux de croissance respectifs de 3,3 % et 3,5 %. L'Amérique du Nord reste en tête de l'audience internet mondiale dont elle représente 40%. L'Europe, le Moyen-Orient et l'Afrique représentent à eux trois 27 % des internautes et l'Asie 22 %. Parmi les huit pays asiatiques étudiés par Nielsen, Singapour a le taux d'accès à domicile le plus élevé: près de 60% de ses quatre millions d'habitants pouvaient se connecter chez eux. La Corée du Sud et Hong Kong se classent respectivement à la deuxième et troisième place avec des taux de connexion de 58 et 56%. L'Inde se classe dernière des pays asiatiques avec seulement sept pour cent des foyers à avoir accès au réseau. Le nombre d'abonnés ne progresse pas rapidement car ceux qui ont les moyens d'acheter des ordinateurs personnels sont peu nombreux et les coûts d'accès peuvent être élevés. Reuters : http://fr.news.yahoo.com/020307/85/2i7ha.html
|
|
|
|
|
|
|
|
Une équipe anglo-américaine de scientifiques a trouvé des milliers de composés chimiques pouvant guérir la maladie du bacille du charbon grâce à un logiciel de calcul partagé exploitant les ressources d'un million d'ordinateurs de particuliers, ont annoncé des responsables du projet. Les chercheurs, surpris par la vitesse à laquelle ils sont arrivés à travailler, ont transmis aux autorités britanniques et américaines deux CD présentant quelque 300.000 composés chimiques possibles. Parmi eux, 12.000 pourraient être un bon remède à la maladie, ont déclaré les responsables du projet qui précisent que ces composés ne sont pas des antibiotiques mais des antitoxines. Le bacille du charbon peut être facilement traité avec des antibiotiques mais seulement s'ils sont administrés avant que les symptômes n'apparaissent, ce qui ne convient pas si la personne ne sait pas qu'elle a été infectée, comme ce fut le cas pour les cinq victimes décédées aux Etats-Unis en octobre dernier. Il faut en général une dizaine d'années pour qu'un médicament passe du stade expérimental à la commercialisation mais Graham Richards, professeur de chimie à l'université britannique d'Oxford, estime qu'un produit issu de ces recherches pourrait être utilisable rapidement, d'ici deux à quatre ans. A l'instar du projet de traitement de données extraterrestres du Seti, la National Foundation for Cancer Research (NFCR), associée à l'entreprise texane United Devices et Intel, utilisait déjà un dispositif de calcul partagé dans ses recherches sur la leucémie. Avec l'aide de Microsoft, le programme utilisé pour les travaux de la NFCR a été adapté à la recherche sur le bacille du charbon. Université d'Oxford le 8-03-02 : http://www.admin.ox.ac.uk/po/020308.shtml
|
|
|
|
|
|
|
|
En surveillant les clignotements des voyants électroluminescents des équipements électroniques, il est possible d'accéder à distance à des données informatiques, a découvert un scientifique américain. Les signaux optiques émis par les voyants LED (light-emitting diode), en général rouges et clignotant sur de nombreux appareils, des modems, aux claviers et aux routeurs, peuvent être interceptés avec un télescope et traités afin de mettre à jour toutes les données ayant transité par l'appareil, a déclaré mercredi à Reuters Joe Loughry, programmateur informatique chez Lockheed Martin Space Systems à Denver. "Cela nécessite peu d'équipement, peut être fait de très loin et est complètement indétectable," écrit-il dans son article intitulé "Information Leakage from Optical Emanations" (Les fuites d'informations à partir des émissions optiques). "En effet, les indicateurs LED fonctionnent comme de petits transmetteurs optiques de données, comme des fibres optiques mais sans les fibres", ajoute-t-il. Tous les appareils équipés de LED ne sont cependant pas exposés. Selon Loughry, les appareils à risque sont ceux utilisés dans les réseaux longue distance de faible vitesse - typiquement ceux des réseaux propriétaires tels que les distributeurs de billets de banque- , contrairement aux réseaux locaux des entreprises et aux connexions internet des particuliers. Loughry a précisé qu'il était parvenu à recueillir des signaux optiques à une distance de 20 mètres en utilisant un capteur optique. Joe Loughry a commencé sa recherche sur les LED en 1994, alors qu'il était étudiant de deuxième cycle à l'Université de Seattle. "Un soir où je travaillais tard et attendais la fin d'une longue transmission de fichier, je regardais fixement ces clignotements sur le modem et j'ai commencé à me demander s'il y avait quelque chose d'intéressant là-dedans," a-t-il expliqué, en ajoutant que personne n'avait eu l'idée de se pencher sur le problème auparavant. Les parades contre cette forme inhabituelle d'espionnage informatique sont faciles - placer l'équipement loin des fenêtres, mettre du papier adhésif noir sur les LED ou les désactiver. Les fabricants peuvent aussi modifier leurs appareils. L'article de Joe Loughry doit être publié dans le courant de l'année dans la revue scientifique de l'Association for Computing Machinery. CNET : http://investor.cnet.com/investor/news/newsitem/0-9900-1028-9014629-0.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Un chercheur de l'Université de l'Illinois a déjà développé des plastiques auto-cicatrisants. Pour ce faire, des composés spécifiques sont embarqués dans le plastique au moment de sa fabrication et agissent tel le sang qui coagule suite à une blessure. A partir d'un autre principe, une équipe de l'Exotic Materials Institute de l'Université de Californie à Los Angeles vient de fabriquer un plastique semblable aux résines époxy. Présenté dans,un article publié dans le dernier numéro de Science, ce plastique baptisé "Automend" est composé de deux éléments qui ne s'associent que l'un avec l'autre pour former un réseau en trois dimensions, une sorte de molécule géante. Lorsque ce plastique se casse, les bords ne réagissent pas au contact avec l'oxygène et restent intacts. L'application d'une source de chaleur permet de les ressouder aussitôt. Capable de se réparer sans nécessiter l'utilisation d'un produit extérieur comme une colle, ce type de produit pourrait trouver des applications dans de nombreux domaines, en particulier pour la fabrication des lentilles. NYT 05/03/02 : http://www.nytimes.com/2002/03/05/science/physical/05PLAS.html
|
|
|
|
|
|
|
|
Loin d'avoir permis le développement de nombreuses applications, les nanotechnologies n'en n'ont pas moins déjà pénétré certains secteurs. Ainsi Nano-Tex utilise dès à présent des nanofibres dans la fabrication de ses pantalons "khakis", particulièrement résistants aux taches. Pour sa part, Nucryst Pharmaceuticals produit des bandages anti-bactériens recouverts de nanocristaux d'argent qui tuent les bactéries en même temps qu'ils réduisent l'inflammation. Quant aux grands fabricants de vitres que sont Pilkington et PPG, ils ont d'ores et déjà lancé des vitrages auto-nettoyants contenant des nanoparticules d'oxyde de titane. Ces différentes entreprises font appel à des procédés de fabrication performants, ce qui a permis une percée de ces produits relativement rapide. Par ailleurs, les activités de ces entreprises retentissent sur celles de beaucoup de leurs fournisseurs, à l'image de Veeco, le fabricant de microscopes à haute résolution, dont les ventes explosent du fait des besoins de contrôle dans le domaine de la production de nano-revêtements. Certains analystes estiment que la vente de produits issus des nanotechnologies, si elle ne représente actuellement que 30 millions de dollars par an, a engendré une activité d'environ 26,5 milliards de dollars pour 2001. Selon la National Science Foundation, ce secteur pourrait atteindre un chiffre d'affaires s'élevant à 1 000 milliards de dollars à l'horizon 2015. NYT 11/03/02 : http://www.nytimes.com/2002/03/11/technology/11NANO.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Comme conducteur, le plastique et les nouveaux métaux recèlent encore de nombreux secrets. D'ores et déjà, Skycross, une entreprise spécialisée dans les applications militaires, étudie des plastiques pouvant être insérés directement dans la structure des voitures ou des immeubles et servir d'antennes. Pour sa part, Integral Technologies de Bellingham (Washington) a mélangé un composé métallique avec du plastique ou du caoutchouc afin de mouler n'importe quelle forme d'antenne embarquée. A partir d'un matériau associant du silicium à ce composé métallique, dont la composition reste secrète dans l'attente d'un dépôt de brevet, cette entreprise a déjà conçu des antennes qui permettent de doubler la puissance des signaux émis par un téléphone cellulaire et d'obtenir une bonne réception, y compris dans des vallées profondes. A terme, ces produits pourraient améliorer la réception des transmissions sans fil et faciliter l'utilisation du GPS. Les transporteurs routiers s'y intéressent afin de pouvoir suivre, via le réseau GPS, les déplacements de leurs camions équipés de pare-chocs/antennes. Ces antennes moulables pourraient également remplacer les étiquettes métalliques des containers en transit, permettant ainsi leur localisation en temps réel. NYT 07/03/02 : http://www.nytimes.com/2002/03/07/technology/circuits/07NEXT.html
|
|
|
|
|
|
|
|
La loi de Moore, qui veut que le nombre de transistors double tous les dix-huit à vingt-quatre mois, en a encore au moins pour six ans. En effet, alors que le gros de la production des semi-conducteurs vient juste de passer au processus de fabrication à 0,13 micron, voici que les fondeurs dévoilent déjà leurs avancées pour la prochaine technologie qui atteindra un pas de 0,09 micron ou 90 nanomètres (nm). " L'amélioration du processus de fabrication nous permet de diminuer la taille des transistors de 30 % tous les deux ans. Nous prévoyons déjà de livrer une puce contenant 1 milliard de transistors en 2007, contre 221millions pour le McKinley", explique Rob Willoner, analyste technologique chez Intel. Intel n'est pas le seul à avoir avancé dans ce domaine. Texas Instruments (TI) et l'alliance Philips-ST Microelectronics-TSMC, qui intègre aussi les équipes de recherche du CEA et de France Télécom R&D, ont également annoncé leurs premiers prototypes à 90 nm. « Nous sommes les seuls à atteindre 330 millions de transistors sur une puce SRAM, qui est le prototype de référence pour tester un processus de fabrication », insiste Rob Willoner. Le fabricant, qui dépense 4 milliards de dollars par an rien que pour coller à la loi de Moore, entend déployer le processus à 90 nm en production dès l'été 2003 alors que Texas Instruments vise plutôt la fin de l'année prochaine. La miniaturisation des transistors permet notamment d'augmenter leur fréquence d'horloge, de réduire leur taille, leur coût et enfin d'abaisser leur consommation électrique. Mais il reste le problème des »fuites » d'énergie lorsque la puce est à l'arrêt. Un phénomène d'autant plus important que le nombre de transistors intégrés dans la puce est élevé. « Pour essayer de résoudre ce problème, nous travaillons sur une nouvelle architecture de transistors mais elle ne sera que partiellement disponible lorsque les lignes à 90 nm seront en production », indique le fondeur. Intel et ses concurrents planchent déjà sur le prochain processus de fabrication qui atteindra 32 nm en production en 2009. Mais après, personne ne peut dire. « Il y a dix ans, beaucoup avait prédit que 0,10 micron serait la limite tandis que maintenant, on parle de 1 nm comme étant la nouvelle limite. La technologie actuelle a certainement atteint le maximum de son potentiel et il faudra alors sans doute utiliser la technique des ultraviolets extrêmes pour la gravure sur le silicium. Une solution qui obligera à développer toute une nouvelle génération d'équipements de fabrication entièrement sous vide. Même si cela reste encore à l'état de recherche fondamentale, je crois qu'il n'y aura pas de problème pour franchir ce nouveau cap" », conclut Rob Willoner. OINet : http://://www.01net.com/rdn?oid=178767&thm=UNDEFINED
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
Au mois de mai 2001, la Food and Drug Administration (FDA) a autorisé la commercialisation du "Gleevec", un médicament fabriqué par Novartis Pharmaceuticals de East Hanover (New Jersey) et utilisé pour le traitement de la leucémie myélogène chronique. Le Gleevec agit en bloquant l'actiond'une protéine défectueuse qui permet aux leucocytes de se multiplier de façon chaotique. Une équipe de recherche du M.D. Anderson Cancer Center de l'Université de Texas publie dans le dernier numéro du New England Journal of Medicine les conclusions d'une première étude clinique à grande échelle menée sur 532 patients ne réagissant plus à l'interféron et auxquels les médecins ont prescrit une dose quotidienne de Gleevec. Après dix-huit mois de traitement, 41% de ces patients ne présentaient plus aucun signe de leucémie. USAT 27/02/02. : http://www.usatoday.com/news/healthscience/health/cancer/2002-02-28-leukemia-dru...
|
|
|
|
|
|
|
|
Une équipe de chercheurs suédois du célèbre Hôpital Karolinska de Stockholm vient de découvrir un moyen de restituer ses propriétés anti-tumorales à un gène défectueux responsable de nombreux cancers. Plus de la moitié des patients atteints des tumeurs cancéreuses ont subi une mutation du gène baptisé p53. Chez les individus sains, ce gène participe à la régénération de l'ADN et combat ainsi le développement de tumeurs. L'équipe de l'hôpital Karolinska de Stockholm est parvenue à remettre le gène mutant en état, ouvrant la voie au développement d'une thérapie susceptible de combattre toute forme de cancer, a affirmé le professeur Klas Wiman, directeur de recherche. "Nous avons eu la chance nécessaire pour découvrir une substance qui fonctionne. Baptisée Prime-1, cette molécule régénère les protéines mutantes du gène p53 et, globalement, le cancer s'auto-détruit". La substance en question, appelée Prime-1, a été testée sur des souris auxquelles une forme humaine de cancer des os avait été inoculée. Peu après l'injection, la croissance des tumeurs s'interrompt presque entièrement. Aucun effet secondaire, comme la perte de poids ou des comportements inhabituels, n'a été observé, poursuit Wiman. "Nous l'avons essayé sur des cultures de cellules et, s'il existe un gène p53 défectueux, elle semble fonctionner", ajoute-t-il. Dans la mesure où le gène p53 n'est pas responsable de l'ensemble des cancers, Wiman préconise d'associer ce traitement à des méthodes telles que les radiations et la chimiothérapie. Le Professeur Wiman précise que la prochaine étape de ses recherches va consister à mieux comprendre les mécanismes d'action de prime-1 pour essayer de trouver d'autres molécules ayant des effets similaires sur ce gène P 53. " Il faudra bien 10 ans pour mettre au point ces nouveaux médicaments de contrôle génétique mais la voie est à présent ouverte", souligne avec enthousiasme le Professeur Wiman. Reuters : http://www.reuters.com/news_article.jhtml?type=sciencenews&StoryID=652725
|
|
|
|
|
|
|
|
Le potientel thérapeutique des cellules souches humaines adultes, que l'on pressentait comme fantastique encore récemment, serait en réalité plutôt décevant, selon deux études récentes. Les chercheurs avaient établi que des cellules souches prélevées à partir d'embryons à un stade très précoce ont une capacité remarquable à se transformer en cellules ou tissus d'organes en tous genres (rein, poumons, foie etc). Mais l'utilisation de cellules provenant d'embryons donne lieu à controverses, et au nom de considérations éthiques, de nombreux pays l'ont interdite. Dans les dernières années, les recherches se sont focalisées sur les cellules souches recueillies sur des tissus adultes (sang, cerveau ou muscle). Et un certain nombre de travaux récents avaient suscité un vent d'optimisme: on a pu penser que ces cellules naissantes pouvaient être reprogrammées pour se développer en une variété de types de cellules, fournissant ainsi un potentiel quasi-illimité pour les transplantations. Ce qui était considéré comme une véritable percée scientifique reposait sur la présomption que ces "bébés cellules" pouvaient être mélangés avec les cellules d'embryons dans un milieu commun dans lequel on pensait que la reprogrammation intervenait. Selon cette théorie, les cellules souches adultes étaient génétiquement éliminées et se convertissaient en cellules embryonnaires, beaucoup plus vigoureuses. Mais les deux études publiées par Nature mettent à mal cette conception optimiste, faisant valoir que dans de nombreux cas, la cellule adulte n'a pas été reprogrammée, elle a seulement été amalgamée avec une cellule embryonnaire. En clair, cela signifie que la cellule souche adulte a dû se choisir une cellule embryonnaire correspondante pour se doter d'une utilité thérapeutique, selon Austin Smith, professeur à l'Universisté d'Edimbourg. En d'autres termes, le nombre des cellules miraculeuses n'a pas été augmenté. "Cela montre la nécessité de rester prudent quant à l'utilisation thérapeutique des cellules souches adultes. Si elles ne fabriquent des tissus différents qu'en se fondant avec des cellules existantes au lieu de créer des cellules nouvelles, cela restreint grandement leur utilité pour la réparation de tissus et la médecine régénérative", ajoute le Pr Smith. L'équipe du Pr Smith était arrivée à cette conclusion après avoir marqué le cerveau d'une souris avec une protéine fluorescente. Ce marquage a été retrouvé dans des cellules de culture mixte qui se comportaitent comme des cellules embryonnaires. De leur côté, des chercheurs menés par Naohiro Terada de l'université de Floride à Gainesville sont arrivés à la même découverte de fusion de cellules. Ils ont constaté que des cellules adultes provenant soit du cerveau soit de la moelle d'une souris, "cultivées" dans le même plat que des cellules souches d'embryons, ont fusionné spontanément pour produire des hybrides capables de produire des muscles, des nerfs et d'autres types de cellules. Les conséquences de ces travaux sont encore inconnues, mais ils sont de nature à tempérer l'enthousiasme des chercheurs. "Je défends toujours la recherche sur les cellules souches et j'aimerais vraiment voir une cellule du sang se transformer en cellule du cerveau ou du foie", a déclaré le Pr Terada à l'AFP. "Mais pour l'instant, nous devrions faire preuve de prudence. Nous n'aurons de réel progrès dans la recherche sur les cellules souches qu'au prix de connaissances plus affrondies", a-t-il ajouté. Nature du 14-03-02 : http://www.nature.com/nsu/020311/020311-5.html
|
|
|
|
|
|
|
|
Contrairement à ce que l'on croyait, le chiffre de tension artérielle maximale ou systolique permettrait de prédire le risque d'accident cardiaque avec plus de certitude que le chiffre minimal, ou diastolique, même après l'âge de 40 ans, selon une nouvelle étude française. Les résultats de cette nouvelle étude ont été publiées le 11 mars dans la revue américaine des Archives de médecine interne. La tension mesure la pression du sang dans les artères. Elle s'exprime en deux chiffres: 12/8 par exemple (120 mm de mercure/80). Le premier chiffre, le plus élevé, correspond à la pression du sang lorsque le coeur se contracte et se vide: c'est la pression systolique. Le second chiffre, le plus bas, correspond à la pression du sang lorsque le coeur se relâche et se remplit: c'est la pression diastolique. Dans cette étude française, les hommes dont la systolique était de 160 ou plus, ont eu un risque deux fois plus important de mourir d'un accident cardiovasculaire, pendant une période de suivi de 14 ans environ, que ceux dont ce chiffre était inférieur à 140. Ceux dont la tension systolique était située entre 140 et 160 présentaient un risque inférieur, quoique encore important. National Institutes of Health : http://www.nhlbi.nih.gov/hbp/hbp/intro.htm
|
|
|
|
|
|
|
|
Dysfonctionnement de la thyroïde, des glandes surrénales, mauvaise absorption du fer, maladies inflammatoires telles la sclérose en plaques, la polyarthrite rhumatoïde ou troubles neurologiques comme la maladie de Parkinson, la fatigue peut s'avérer le symptôme isolé de multiples affections. Un quart des grands fatigués qui consultent dans les services de médecine interne des hôpitaux souffrent également, sans le savoir, de troubles du sommeil. « Il y a beaucoup de gens qui croient dormir et qui en réalité ont des micro-réveils toute la nuit », explique le Pr Hatron, interniste au CHR de Lille. Enfin, dans plus d'un quart des cas, cet épuisement cache une dépression ou une maladie psychiatrique. « C'est le gros des troupes » confirme le Pr Jean Cabane, chargé de la consultation fatigue à l'hôpital Saint-Antoine à Paris. Et puis, il y a tous ces fatigués chroniques jusqu'à l'épuisement qui n'entrent dans aucune de ces cases médicales, errant de consultation en consultation, à la recherche éperdue d'un diagnostic : « En France, nous commençons à tout juste reconnaître deux maladies où la fatigue, l'épuisement physique et les douleurs multiples sont au premier plan » poursuit le Pr Hatron « la fibromyalgie et le syndrome de fatigue chronique. » On estime que 150 000 personnes pourraient être atteintes de cette dernière maladie invalidante, des malades de tous âges et de tout sexe. Ces pathologies encore mystérieuses pourraient avoir pour origine un déséquilibre du système immunitaire : « Nous menons en ce moment une recherche sur les malades atteints du syndrome de fatigue chronique pour tenter de trouver des marqueurs communs dans le sang et les systèmes immunitaires », explique le Pr Cabane. Le 12 mai, une journée internationale consacrée au syndrome de fatigue chronique et à la fibromyalgie se tiendra dans 28 pays à travers le monde. Parisien : http://www.leparisien.com/home/info/permanent/article.htm?
|
|
|
|
|
|
|
|
Fribourg-en-Brisgau (Bade-Wurtemberg). L'entreprise Envision Technologies, en collaboration avec le Centre de recherche sur les matériaux de Fribourg-en-Brisgau, annonce des progrès dans la mise au point de "pièces de rechange humaines" sur mesure. Cette société de biotechnologie développe un procédé intitule "Bio-plotting", alliant robotique et culture cellulaire. Idéalement, voici le scénario qu'Envision Technologies envisage dans un futur proche. A partir d'un enregistrement tomographique réalise sur un patient, le chirurgien détermine la forme tridimensionnelle de la "pièce" à confectionner. Une fois les calculs achevés, un robot découpe la forme dans une masse d'hydrogel. A titre d'exemple, l'obtention de la forme complète d'un cartilage nasal nécessite entre trois et quatre heures. La dernière étape consiste a injecter quelques cellules prélevées chez le patient dans le moule d'hydrogel. En présence d'un milieu de culture adéquat, un phénomène de prolifération cellulaire est provoque le long de la trame du gel. Pour intéressant qu'il soit, le programme de recherche est encore très éloigné des premiers essais cliniques. Avant de se risquer a une substitution chez l'Homme, les chercheurs prévoient toute une série de tests chez l'animal. Be Allemagne : http://www.adit.fr
|
|
|
|
|
|
|
|
La France doit "relever le défi" des biotechnologies, porteuses d'une véritable révolution, en mettant en oeuvre un "plan global", à l'image de ce qui a été fait pour les technologies de l'information, recommande un groupe de travail dans un rapport remis le 11 mars au gouvernement. Comme tout basculement scientifique, les avancées des biotechnologies, qui sont un outil et non une fin, sont "ambivalentes", et dresser ce constat "ne doit pas conduire à l'inaction, au contraire", souligne le rapport qui avait été confié à Noëlle Lenoir, conseiller d'Etat. Selon le rapport, en matière médicale, il n'est pas exagéré de comparer la révolution qu'apporte le déchiffrage du génome humain à celle promue par Louis Pasteur à la fin du 19ème siècle. Qu'il s'agisse de diagnostic ou de prévention, de la mise au point de nouvelles thérapeutiques, de nouvelles familles de médicaments, toutes les pathologies sont concernées: depuis les maladies génétiques rares jusqu'aux pathologies les plus fréquentes comme les cancers. Les applications agro-industrielles des biotechnologies n'en sont pas moins importantes, les matériaux à base de plantes pouvant fournir des molécules pour les industries pharmaceutiques et de transformation de l'énergie, souligne le rapport. Par ailleurs, les biotechnologies offrent de nouveaux moyens pour protéger et améliorer l'environnement. Mais les biotechnologies suscitent autant d'inquiétude que de fascination: "les réactions de la société en Europe, particulièrement vis-à-vis des sciences du vivant, comportent une part d'émotion, voire d'émotionnel, selon le rapport qui ajoute qu'il appartient à la collectivité dans son ensemble de préciser jusqu'où aller et quelles limites ne pas franchir". La France figure au troisième rang en Europe pour le nombre de sociétés de biotechnologie, mais "les applications économiques de notre excellence scientifique restent insuffisantes. l'Union européenne a pris un retard important vis-à-vis des Etats Unis, qu'il faudra combler durant les prochaines années. Rapport sur les biotechnologies : http://www.minefi.gouv.fr/minefi/actualites/actu2/index.htm
|
|
|
|
|
|
|
|
Un scientifique de l'Université de l'Alberta, Murray Gray, souhaite se servir de micro-organismes pour accomplir des tâches de séparation et de conversion des molécules de pétrole que la chimie conventionnelle ne permet pas. L'ingénieur a identifié une douzaine de bactéries munies de pompes à pétrole. Ces micro-organismes possèdent des enzymes, protéines favorisant les réactions chimiques, qui dissocient les molécules de pétrole brut. Ces protéines agissent donc comme des raffineries de pétrole miniatures. Le chercheur tente maintenant de percer le secret de ces bactéries qui absorbent des molécules de pétrole et qui les rejettent. Ces micro-organismes savent différencier différents types de composés de pétrole brut. Elles en pompent certains et en laissent d'autres de côté. Les pompes de la bactérie Rhodococcus erythropolis sont si sélectives qu'elles peuvent faire la différence entre deux isomères, deux versions du même produit chimique dont la structure diffère. « Aucun processus chimique conventionnel de séparation ne permet un tel degré de sélectivité », a affirmé Murray Gray. Cependant il reste encore beaucoup de chemin à faire avant de mettre ces bactéries sur le terrain. Certaines d'entre elles, génétiquement modifiées pour leur permettre de pomper le pétrole mais sans l'absorber, ne seraient pas opérationnelles pour exploiter les sables bitumineux. Murray Gray étudie donc les micro-organismes qui peuvent éliminer l'azote des sables bitumineux. Le pétrole se trouve dans les roches sédimentaires de la croûte terrestre sous forme liquide. Il existe également sous forme solide ou gazeuse. C'est un mélange complexe d'hydrocarbures avec de petites quantités d'azote, d'oxygène et de soufre. Le pétrole résulte de la dégradation de la matière organique, issue de végétaux et d'organismes microscopiques, enfouis avec les sédiments au fond des océans. Cybersciences : http://www.cybersciences.com/Cyber/3.0/N2685.asp
|
|
|
|
|
|
|
|
Les enfants d'aujourd'hui sont globalement plus intelligents que leurs parents et grands-parents, mais... il est généralement admis que les quotients intellectuels (QI) sont largement déterminés par les gènes. Un paradoxe vieux de 15 ans qui vient peut-être d'être résolu. Puisque des jumeaux identiques - mais séparés à la naissance - développaient des QI semblables, l'intelligence a longtemps été considérée comme génétique. Mais, en 1987, James Flynn remarque que les scores aux tests de QI augmentent de façon constante depuis 50 ans. Selon lui, cet "accroissement de l'intelligence" est beaucoup trop rapide pour s'expliquer par des gènes qui "s'améliorent". Il y a donc sûrement des causes environnementales au QI. Pour réconcilier cette conclusion et les résultats sur les jumeaux, James Flynn et William Dickens ont développé un modèle mathématique. Comme ils l'écrivent dans le Psychological Review d'avril, celui-ci montre que gènes et environnement font partie d'un cercle. Ainsi, un enfant génétiquement prédisposé au raisonnement abstrait sera plus doué pour l'école qu'un enfant qui préfère manipuler des objets : davantage attiré par les classes, il sera jugé meilleur élève par ses professeurs et encouragé à poursuivre ses études. Sa mince prédisposition génétique prendra alors de l'ampleur, le poussant peut-être jusqu'à l'université. En outre, soulignent les chercheurs, l'environnement peut à lui seul engendrer de nouvelles habiletés. De fait, les parents consacrent plus de temps à leurs petits qu'il y a 50 ans et développent peut-être ainsi leur QI. "Les sources de l'intelligence ne peuvent pas être segmentées, tel pourcentage dû aux gènes et tel pourcentage à l'environnement, conclut William Dickens. Un enfant génétiquement plus grand que les autres ne deviendra un grand basketteur que s'il joue avec un ballon". Psychological Review de janvier 2002 : http://www.apa.org/journals/rev/press_releases/january_2002/rev1091116.pdf
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
L'homme moderne serait le fruit de plusieurs croisements entre les différentes lignées qui se sont développées de par le monde, mais issues du berceau africain, et non de leur extinction, selon les travaux d'une équipe américaine publiés jeudi dans la revue britannique Nature. L'équipe du Pr Alan Templeton, du département de biologie de l'université de Washington (Saint-Louis, USA), à l'aide d'un logiciel statistique nommé GEODIS, a pu déterminer les relations génétiques à l'intérieur et entre les populations. Cette observation était basée sur l'étude de 10 séquences d'ADN héritées de l'un ou l'autre des parents, dont, entre autres, de l'ADN mitochondrial (la mitochondrie est nécessaire à la production d'énergie), une partie du chromosome Y et deux séquences du chromosome X. L'utilisation de ces séquences offre une plus grande justesse statistique que la simple utilisation de l'ADN mitochondrial comme référence. En effet, l'ADN mitochondrial, en tant qu'unique référence, a été le moteur d'une controverse d'importance sur les origines de l'homme moderne (homo sapiens sapiens). Certains voient dans l'homme moderne le descendant d'un ancêtre commun, dont le berceau était l'Afrique, qui aurait progressivement colonisé la planète, remplaçant petit à petit les autres types d'hominidés. D'autres voient en lui le descendant d'un métissage de communautés qui seraient apparues en même temps dans divers endroits du globe. Mais les résultats obtenus tendraient à prouver qu'il y a eu, dans l'histoire de l'humanité, deux grandes phases d'expansion de l'homme à la surface du globe, dont l'origine était l'Afrique. La première aurait eu lieu dans une fourchette estimée de temps allant de 420.000 à 840.000 ans avant notre ère et la seconde entre 80.000 et 150.000 ans avant notre ère. Cette seconde phase n'aurait donc pas donné lieu à une extinction des lignées d'hominidés existantes mais bien à des croisements entre celles-ci. Pour l'affirmer, le Pr Templeton s'appuie sur le fait que "si remplacement il y avait eu, les signatures génétiques correspondant à la plus ancienne des expansions auraient disparu". Et d'ajouter: "Les croisements ont permis de renforcer les liens génétiques existant entre les différentes populations humaines". Cette étude conforte celle publiée en 1998 par le même Pr Templeton, dans laquelle il expliquait que "les humains forment une race et non une espèce avec des subdivisions". Cette étude montrait alors que tous les individus partagent, à 85%, les mêmes gènes, les 15 % restant ne suffisant pas à les distinguer biologiquement. Nature : http://www.nature.com/nsu/020304/020304-7.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|