|
|
Edito
Notre univers est-il né à partir du vide ?
Le satellite WMAP vient de livrer, il y a quelques semaines, ses premières images extraordinairement précises du bruit de fond thermique de l'Univers tel qu'il était seulement 400000 ans après le Big Bang. En étudiant la taille et la répartition de ces fluctuations thermiques les scientifiques ont obtenu des informations fondamentales sur notre Univers. Premièrement, l'âge de l'Univers peut être calculé avec une précision sans précédent (1 %). Cet âge est de 13,8 milliards d'années. Ces images confirment en outre que l'Univers est "plat" à grands échelle et qu'il va donc continuer son expansion sous l'effet d'une énergie inconnue, la mystérieuse "énergie sombre", qui représente 73 % de l'Univers (le reste étant composé par la "matière noire", 23 %, et notre matière "ordinaire, seulement 4 %) et s'oppose à l'effet de la gravitation. En observant des supernovae très lointaines, à la fin de l'année 1998, une équipe internationale de chercheurs avait déjà calculé que non seulement l'Univers est en expansion, mais qu'il connaîtrait une phase d'accélération depuis environ 4 milliards d'années ! La fameuse constante cosmologique, imaginée par Einstein au début du siècle, pourrait expliquer ce phénomène remarquable. Cette constante représenterait "l'énergie du vide", ou "l'énergie sombre" dont la force serait de sens opposé à la force gravitationnelle. Ces observations récentes ne nous proposent pas seulement une nouvelle description de l'Univers, et une nouvelle vision de son évolution, mais elles accélèrent la remise en cause théorique du modèle "standard" actuel qui explique la naissance de notre Univers par le Big Bang. Le Big Bang pose en effet des problèmes scientifiques et métaphysiques considérables. On ne peut notamment échapper à ces deux interrogations fondamentales : pourquoi le Big Bang a t'il eu lieu et qu'avait-il "avant"? Enseignant à l'université de Stanford depuis 1990, Andrei Linde, un des plus grands cosmologistes de notre temps, a formulé en 1982 une nouvelle théorie de l'univers qui se veut une "amélioration" du modèle du Big Bang (l'explosion initiale à l'origine de la création de l'univers). Linde critique la théorie du Big Bang pour les nombreux problèmes physiques et philosophiques qu'elle soulève. Il considère notamment que les équations physiques qui déterminent le Big Bang prédisent un univers beaucoup plus petit qu'il ne l'est en réalité et que le modèle théorique n'explique pas pourquoi les différentes régions de l'univers se ressemblent et les lointaines galaxies sont distribuées de façon aussi uniforme dans toutes les directions au sein de l'univers. Sur ce dernier point, il semblerait que les fameux trous noirs aient joué un rôle fondamental pour rassembler les milliards d'étoiles et les organiser en galaxies grâce à la gravité (voir sur ce point précis l'article sur les trous noirs dans notre rubrique espace). C'est pourquoi Linde propose la théorie d'un univers auto-reproducteur et à très forte croissance (self-reproducing inflationary universe) qu'il a modélisé grâce à des simulations sur ordinateur. Selon lui, la croissance de l'univers à son origine aurait été extrêmement rapide et aurait obéi à un modèle d'"inflation chaotique". Alors que la théorie classique du Big Bang décrit un univers semblable une bulle de savon se gonflant graduellement, la théorie de Linde décrit un univers semblable à une bulle qui produirait des bulles identiques, et ainsi de suite. L'univers décrit par Linde enfanterait de nouveaux univers par auto-reproduction et selon une arborescence empruntée aux mathématiques fractales découverte par Benoit Mandelbrot. Pour le physicien russe Andrei Linde, il faudrait imaginer l'univers comme un ensemble de bulles intereliées qui se développent de manière fractale (chaque partie du tout ressemble au tout). Il y aurait donc eu création d'un univers à partir duquel plusieurs bulles se seraient formées de façon indépendante. Ces nouvelles bulles seraient en fait des points de l'univers qui seraient entrés en expansion en eux-mêmes, sans affecter l'univers originel. Chacun de ces univers aurait ses propres lois de la physique et pourrait donner naissance à d'autres univers, et ainsi de suite. Ce mécanisme donnerait lieu à un univers auto-reproducteur éternel et infini dans le temps et dans l'espace. Le modèle de Linde est à la fois très audacieux et très novateur car il dépasse le problème de l'origine du Big Bang et se situe dans un nouveau cadre théorique qui intègre la relativité générale et la physique des particules (théorie quantique des champs et théorie des interactions fondamentales) pour obtenir un cadre explicatif plus général. Ce nouveau cadre, appelé "quintessencence" par certains physiciens, est fascinant car il ouvre la possibilité mathématique et physique d'une création ex nihilo, à partir de fluctuations du vide quantique. Dans le monde quantique, les objets (particules, ondes ou champs) ne peuvent jamais être au repos absolu. Ils restent toujours dans un état de vibration résiduelle. Ainsi, le vide, ne doit plus être considéré comme un néant ou une absence totale de matière et d'énergie mais comme un champ d'énergie à son niveau minimal. Dans ce cadre théorique, les particules deviennent des émanations de ce champ. Leurs disparitions et apparitions sont la manifestation des fluctuations du champ quantique fondamental. L'expansion de l'espace induit l'excitation du champ, et donc la création de particules. Cette expansion de l'Univers apparaît donc comme un réservoir d'énergie interne. Le processus ne consomme globalement aucune énergie, puisque celle-ci est simplement "transvasée" du contenant géométrique vers le contenu matériel, le champ quantique. Le plus étonnant c'est que ce processus peut s'enclencher quel que soit l'état quantique du champ au départ, même si c'est l'état de vide. La préexistence de particules matérielles n'est pas nécessaire pour amorcer la création d'autres particules. Linde s'appuie sur ce nouveau cadre théorique pour proposer son modèle cosmologique d'univers auto-reproducteur et auto-accélérateur. Dans ce scénario cosmologique, la singularité du Big Bang se voit remplacée par un détonateur physique, qui n'est autre qu'une instabilité du vide. En la présence, inévitable, de la gravitation, le système passe nécessairement d'un vide quantique instable à un Univers en expansion et empli de matière, selon un processus qui s'entretient tout seul et qui ne coûte rien du point de vue énergétique. Dans ce fascinant scénario que nous propose Linde, tout se passe comme si la matière et l'espace-temps courbe, d'une part, et le vide, d'autre, part n'étaient que deux phases distinctes, mais énergiquement équivalentes d'un seul et même substrat. Tous les objets contenus dans l'univers, y compris nous-mêmes, ne seraient finalement qu'une forme cristallisée du vide. Dans le modèle de Linde notre univers ne serait donc qu'une infime partie d'un "multivers" qui n'aurait ni commencement, ni fin et serait éternel. On voit donc qu'en ce début de XXI e siècle, la cosmologie, grâce aux nouveaux moyens d'observation et d'analyse, est en train de vivre une extraordinaire révolution, à la fois empirique et théorique, qui va déboucher sur un nouveau cadre conceptuel intégrant et dépassant, probablement à l'aide de la supersymétrie et de la théorie des supercordes, la physique quantique et la relativité générale. L'existence de cette omniprésente et mystérieuse "énergie sombre", qui gouverne l'évolution de notre Univers et en constitue la majeure partie, démontre en tout cas à quel point Teillard de Chardin avait raison quand il écrivait "en science, seul le fantastique a des chances d'être vrai." René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le même phénomène identifié sur les réseaux autoroutiers dans les années 1950 est en train de se reproduire sur le Net. A l'instar d'un automobiliste, chaque paquet d'information prend le chemin le moins encombré, qui n'est pas forcément le plus court, pour atteindre sa destination. Pour ce faire, les routeurs sont censés évaluer le niveau de congestion du réseau avant l'envoi d'une information et choisir la voie la plus libre. Mais si tous les routeurs font de même au même instant, la situation s'inverse et le chemin retenu est à son tour embouteillé. Tim Roughgarden et ses collègues de l'Université de Cornell estiment que ce phénomène est à l'origine d'une sous-exploitation du réseau Internet. Ils ont ainsi calculé que, dans certain cas, la vitesse de transmission des données pouvait être de 33% inférieure à celle d'un système parfait. Des solutions pourraient permettre d'approcher les performances théoriques : accroître la capacité du réseau bien sûr, un peu comme on augmenterait le nombre de voies sur une autoroute, et limiter le comportement "égoïste" des routeurs qui sélectionnent le parcours le plus rapide, sans tenir compte des conséquences de leur choix. Il faudrait pour cela que les constructeurs élaborent de nouveaux dispositifs capables, lors d'un envoi, non seulement d'estimer l'état du réseau mais aussi de tenir compte de leur propre contribution au trafic. En un mot, de penser aux autres. NYT 24/04/2003 : http://www.nytimes.com/2003/04/24/technology/circuits/24next.html
|
|
|
|
|
|
|
|
Un amendement adopté par le Sénat le 1er avril dernier, au cours du vote du projet de loi sur le traitement de données à caractère personnel, pourrait permettre aux sociétés d'auteurs de collecter et de traiter des adresses IP (considérées par la Cnil comme des données personnelles), afin de remonter jusqu'aux internautes adeptes de peer-to-peer illégal. Ce projet de loi modifie la loi Informatique et Libertés de 1978, dans le cadre de la transposition de la directive européenne de 1995 sur la protection des données à caractère personnel. Le texte a été voté en première lecture par l'Assemblée nationale en janvier 2002. Il a été adopté au Sénat seulement début avril dernier. Entre les deux étapes, a été ajouté l'amendement numéro 12, présenté par le sénateur du Nord et rapporteur du projet de loi Alex Türk. Cet ajout précise que les traitements de données à caractère personnel peuvent être mis en oeuvre par des « personnes morales victimes d'infractions, pour les stricts besoins de la lutte contre la fraude et dans les conditions prévues par la loi. » La modification tient en un peu plus d'une ligne, mais a son importance. Jusque-là, seules les juridictions, les autorités publiques, les personnes morales gérant un service public « agissant dans le cadre de leurs attributions légales » ou des auxiliaires de justice étaient habilités à collecter et à traiter ce type de données. Ce qui excluait les sociétés d'auteurs. La loi est aujourd'hui repartie à l'Assemblée nationale pour une deuxième lecture, a priori en juin. Si elle passe telle quelle, sociétés d'auteurs et majors du disque seront en théorie autorisées à récupérer et à conserver les adresses IP des utilisateurs de réseaux P2P. « Cela va leur permettre de repérer les gros utilisateurs et de cibler leurs attaques sur ceux qui mettent des milliers de fichiers en partage en ligne, explique Benoît Tabaca, juriste au FDI. Les sociétés d'auteurs pourront avoir des bases de données chez elles, pour conserver, traiter et utiliser les données. » La définition de l'adresse IP, par la Cnil, comme donnée personnelle, servant habituellement de rempart aux utilisateurs de peer-to-peer, reste valable. Le changement serait de donner à plus d'organisations l'autorisation d'utiliser ce type de données dans le cadre d'actions judiciaires. Au cours des débats, Alex Türk a justifié en partie cet amendement : « Cette disposition est vivement souhaitée par la Cnil ...] : elle permettra d'éviter la mise en place d'un certain nombre de fichiers clandestins. En effet, beaucoup de fichiers existent sans être connus de la Cnil. L'objectif est de les inscrire dans cette base juridique de façon que, désormais, ils fassent l'objet d'un contrôle. » En gros : ce qui était illégal hier (collecter et traiter des adresses IP) devient légal aujourd'hui, mais pour un meilleur encadrement et pour éviter les abus. OINet : [http://www.01net.com/article/207780.html
|
|
|
|
|
|
|
|
Un groupe de scientifiques européens émérites fait en ce moment circuler une pétition à l'adresse des députés européens, pour faire obstacle à la brevetabilité des algorithmes et des idées logicielles, dernière trouvaille de la Commission européenne pour créer un régime de brevets unifié dans toute l'UE. La pétition a été lancée au moment où le Parlement européen examine la proposition de directive sur «la brevetabilité des inventions mises en oeuvre par ordinateur», préparée il y a un an par la Commission européenne . L'examen de ce texte doit avoir lieu le 21 mai prochain. La directive, destinée à créer un régime des brevets commun à toute l'UE, aurait pour conséquence de transférer à la Cour européenne de justice, plutôt qu'aux systèmes juridiques des États-membres, le soin de trancher les litiges relatifs aux brevets. Une trentaine de scientifiques ont signé la pétition au début du mois, critiquant la proposition et demandant au parlement d'adopter un texte qui «rende impossible de façon claire, pour aujourd'hui et pour demain, tout brevetage des idées sous-jacentes des logiciels (ou algorithmes), des méthodes de traitement de l'information, des représentations de celle-ci ou des données, et des interfaces logicielles entre êtres humains et ordinateurs». Rappelons que la Convention européenne du brevet (une vingtaine de pays signataires dont ceux de l'UE) stipule qu'une méthode opérationnelle ou un programme d'ordinateur «en tant que tels» ne peuvent pas être brevetés. Toutefois, en se basant sur la jurisprudence récente de l'Office européen des brevets (OEB), les avocats admettent qu'il est difficile de savoir exactement ce qui peut être défini comme un programme d'ordinateur, par opposition par exemple à une invention qui utilise un ordinateur en tant que composant. Pour le camp des opposants au nouveau régime proposé par la directive, le risque est la mise en place d'un système similaire à celui en vigueur aux États-Unis, où les grandes entreprises disposant de milliers de brevets sur des logiciels peuvent obliger leurs concurrents plus modestes à payer des licences de propriété intellectuelle. Les partisans de cette proposition soutiennent que le système actuel a favorisé trop de divergences d'interprétation par les États membres, tout en autorisant également une trop grande ambiguïté quant à savoir quels types de brevets liés aux ordinateurs sont autorisés ou pas. Pour certains experts juridiques en propriété intellectuelle, la crainte que l'UE ne se dirige vers un système de type américain est sans fondement. «Nous ne suivons pas le modèle américain, je vois mal une telle chose se produire», déclare Alex Batteson, avocat pour le cabinet londonien Bristows. «Il est prématuré de tirer des conclusions sur ce qu'il adviendra». Selon lui, la proposition pourrait subir des révisions majeures avant de revêtir la forme d'un projet de règlement ; la proposition toute entière pourrait même être abandonnée. Dans le cadre de la pétition, les scientifiques dénoncent les «dérives» de l'OEB ces dernières années. Il a parfois délivré des brevets tendencieux sur «des algorithmes, des logiciels, des structures de données et des méthodes de traitement de l'information». «En fait, il s'agirait d'une extension considérable du champ de la brevetabilité, en opposition radicale avec l'esprit de la Convention», selon la pétition. L'année dernière, Richard Stallman, fervent défenseur des logiciels libres, a déclaré que la logique régissant le régime de brevets logiciels américain aurait obligé Beethoven à payer Mozart pour avoir le droit de créer une nouvelle symphonie. ZDnet : http://news.zdnet.fr/story/0,,t118-s2134092,00.html Pétition des scientifiques : http://lists.debian.org/debian-user-catalan/2003/debian-user-catalan-200304/msg0... Proposition de directive sur «la brevetabilité : http://www.europa.eu.int/comm/internal_market/en/indprop/com02-92fr.pdf
|
|
|
|
|
|
|
|
La biométrie, méthode de reconnaissance basée sur les caractéristiques biologiques propres à chaque individu, qui permettrait de lutter plus efficacement contre le terrorisme, a été l'un des principaux sujets abordés lundi par le G8 à Paris, mais ses pays membres doivent trancher entre plusieurs techniques. Une décision sur ce point est urgente, car les Etats-Unis ont fixé à octobre 2004 le délai qu'ils imposeraient pour les contrôles par recours à la biométrie des titres d'identité et de transport nécessaires à l'entrée sur leur territoire. Lundi, les ministres de l'Intérieur et de la Justice des pays les plus industrialisés ont décidé la création d'un "groupe de travail d'experts de haut niveau, co-présidé par la France, qui préside le G8, et les Etats-Unis", qui lui succèderont en janvier, a annoncé le ministre de l'Intérieur, Nicolas Sarkozy. Ce groupe rendra ses conclusions "avant la fin de l'année", a-t-il ajouté. La biométrie permet d'inclure dans le passeport d'une personne, "sous forme de puce ou de code-barre une caractéristique biologique qui lui est unique", comme l'empreinte digitale, l'iris de l'oeil ou la reconnaissance faciale. Lors d'un contrôle, il suffit alors de comparer la personne et le passeport qu'elle présente pour s'assurer qu'elle en est bien le titulaire. Par rapport aux contrôles actuels, la biométrie ferait "passer de l'âge de pierre à des méthodes bien supérieures", a estimé Nicolas Sarkozy. "Nous sommes tous décidés à faire appel à la biométrie et tous convaincus qu'il y a urgence à le faire", a-t-il ajouté, et c'est en particulier pour faire un choix entre les trois techniques possibles qu'a été créé le groupe de travail. "La France propose qu'on (en) retienne deux", a indiqué M. Sarkozy, en rappelant que "la tradition française, c'est l'empreinte digitale", tandis que l'Allemagne, elle, préfère utiliser l'iris de l'oeil. L'urgence d'un accord, du fait du délai américain, a été soulignée lundi, lors de la conférence de presse finale, par le ministre britannique de l'Intérieur, David Blunkett et le commissaire européen aux questions de sécurité, Antonio Vitorino. Cela "pourrait avoir des conséquences délétères sur la libre circulation, nous devrons faire oeuvre de précurseurs", a relevé David Blunkett. Le projet américain "aura des implications dans la délivrance des visas", a pour sa part reconnu Antonio Vitorino, qui a indiqué que la Commission "est en train de préparer des propositions de passeports et de visas émis par l'Union européenne" avec des éléments biométriques. AFP : http://fr.news.yahoo.com/030505/202/36jm4.html
|
|
|
|
|
|
|
|
Les sociétés d'édition de logiciels essayent depuis de nombreuses années de populariser les programmes de reconnaissance vocale, mais les performances des programmes proposes sont souvent discutables. L'amélioration des puissances de calcul des ordinateurs de bureau, ainsi que l'élaboration de nouveaux algorithmes permettant de créer des applications obéissant a la voix de l'utilisateur, apportent un nouvel espoir. Le logiciel Audio Visual Speech Recognition (AVSR) d'Intel permet de suivre le mouvement des lèvres et du visage d'un utilisateur. En couplant cette technique avec la voix, ce programme peut fournir suffisamment de données a l'ordinateur pour qu'il réponde a des commandes, même dans un environnement bruyant. Sur le même principe, Microsoft Research développe un programme baptise GWindows, qui permet de déplacer des fenêtres de programme ou de faire défiler une page, en combinant commande vocale et mouvement de la main ou d'un pointeur, a proximité de l'écran d'ordinateur. Par ailleurs, Intel envisage d'autres applications pour son logiciel AVSR, notamment médicales, pour la détection de risques de crises cardiaques chez les patients d'un hôpital. Toutes ces méthodes reposent en partie sur des méthodes statistiques de Bayes, a l'origine de nombreux projets en intelligence artificielle. Intel : http://www.intel.com/research/mrl/research/avcsr.htm
|
|
|
|
|
|
|
|
Microsoft a annoncé lundi avoir développé avec Hewlett-Packard un PC de nouvelle génération destiné aux utilisateurs qui jonglent pour des raisons professionnelles avec le téléphone, le fax, le courrier électronique, la vidéoconférence et la messagerie instantanée. Baptisé du nom de code "Athens" cet "ordinateur personnel d'entreprise de nouvelle génération", selon la terminologie de ses créateurs, est composé d'un boîtier translucide, d'un écran plat large, d'un lecteur de CD, d'une caméra et d'un combiné téléphonique, entre autres équipements. Doté de la technologie sans fil Bluetooth, il est capable de détecter quelle tâche est en train d'effectuer son utilisateur pour lui envoyer un message sous la forme appropriée. Par exemple, si l'utilisateur est en vidéoconférence, ses services de messagerie affichent "occupé" et les appels téléphoniques sont dirigés vers la boîte vocale. Des indicateurs lumineux clignotent et changent de couleur en fonction de la priorité d'un appel, d'un courrier électronique ou d'un message instantané. La plupart de ces fonctions sont déjà offertes par des fabricants de matériel informatique et des éditeurs de logiciels, à des prix souvent élevés. Microsoft et HP parient que les clients "entreprises" voudront acheter de tels ordinateurs personnels pour accroître leur productivité. Dans un marché en recul constant, Microsoft cherche tous les moyens d'augmenter les ventes de PC et étend ses activités à de nouveaux produits. "Athens", qui sera dévoilé cette semaine par le président-fondateur de la firme de Redmond, Bill Gates, ne sera pas commercialisé avant un à deux ans, selon un responsable de Microsoft. Reuters : http://fr.news.yahoo.com/030506/85/36kty.html
|
|
|
|
|
|
|
|
Avec l'explosion de l'ADSL, l'Internet haut débit est devenu une réalité... En ville. Hors des agglomérations, l'accès rapide au Web reste un luxe, nécessitant des récepteurs satellites ou BLR ( Boucle Locale Radio ). Pourtant, ce marché pourrait être bouleversé dans les prochains mois avec l'apparition du Wi-Fi dans les campagnes. Deux fournisseurs, Tiscali et Altitude Télécom sont en effet en train d'équiper des communes isolées avec cette technologie. Tiscali a choisi la localité de Felletin , sur le plateau de Millevaches, dans le Limousin. Là, la société Aramiska , spécialisée dans l'accès par satellite, va installer un hub chargé de relier le village au Web. Des bornes Wi-Fi seront ensuite installées sur le toit de plusieurs bâtiments de la commune. De quoi tisser un réseau sans fil dans tout Felletin. Les particuliers intéressés n'auront alors qu'à s'équiper d'une antenne patch, un gros autocollant à placer par exemple sur une fenêtre, qui permettra de recevoir le signal des bornes. Il suffira ensuite de brancher cette antenne au port USB d'un ordinateur pour obtenir un débit espéré proche de celui de l'ADSL. Le tout pour une somme extrêmement modique. Selon Tiscali, entre 20 000 et 30 000 euros suffiraient pour couvrir la zone où vivent les 1900 habitants de la commune. Le fournisseur d'accès à Internet compte ainsi proposer un accès à haut débit à des tarifs équivalents à ceux de l'ADSL en ville. Un objectif qu'Altitude Télécom compte dépasser à Sillé-Le-Guillaume, dans la Sarthe. Le but de l'opérateur est d'offrir un accès haut débit à 20 euros par mois. Pour atteindre ces ambitions tarifaires, Altitude Télécom va faire transiter une bande passante de 34 Mo/s par boucle locale radio. Celle-ci sera alors reliée à des bornes 802.11G (une évolution future du Wi-Fi, offrant un débit théorique cinq fois supérieur) permettant de relier au Web l'ensemble de la zone, chaque point ayant un rayon de couverture de 1 km. Il ne s'agit toutefois que d'expérimentations, menées avec l'accord de l'Autorité de régulation des télécommunications. Le comportement du sans-fil en plein air reste par ailleurs mal connu. Altitude Télécom a tenté d'en savoir plus avec sa « camionnette Wi-Fi ». Doté d'un mât télescopique surmonté d'une antenne 802.11g, le véhicule a été baladé pendant deux mois pour tester la réception et la diffusion de signaux émis depuis un point d'accès Wi-Fi situé dans les locaux d'Altitude Télécom. De quoi constater les limites de la technologie : à la différence des signaux GSM, les signaux Wi-Fi se réfléchissent très mal contre les murs et les obstacles. Pour obtenir une bonne réception, il est donc indispensable de bien orienter les antennes. La neige et la pluie n'ont, elles, aucun impact. Quant à la distance maximale d'émission, elle s'est élevée à 5 kilomètres. Enfin, à 500 mètres d'une borne, une simple antenne patch permet d'obtenir un débit de 2,4 Mbit/s. Des premiers tests concluants. A Felletin comme à Sillé-le-Guillaume, les expériences devraient se poursuivre tout au long de l'année. Avec comme objectif de permettre à Tiscali et Altitude Télécom de proposer le haut-débit clé en main aux communes françaises. OINet : http://www.01net.com/article/207656.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs de l'institut de nanotechnologies du Forschungszentrum de Karlsruhe ont mis au point un nouveau métal poreux à l'échelle du nanomètre, qui, par l'application d'une tension électrique, peut se dilater, l'inverse étant également possible. L'énergie électrique est ainsi directement transformée en énergie mécanique (ou le contraire). Ainsi pour la premier fois, il a été possible de mesurer au niveau macroscopique les changements de longueur (jusqu'a 0,15%) d'un métal, soumis a de faibles tensions électriques. Cette découverte devrait permettre la réalisation de composants microscopiques (pour lesquels des demandes de brevets ont d'ores et déjà été déposées) tels que des interrupteurs et des régulateurs, des capteurs, des actuateurs... Le métal nanoporeux utilise est le platine. Au cours d'un procédé d'évaporation puis de condensation dans une atmosphère pauvre en gaz noble, le platine pur donne naissance a des particules de 5 nm de diamètre qui, après compactage, forment un matériau poreux. Celui-ci est alors trempe dans un électrolyte (acide ou base) qui permet le transport des charges électriques dans les nanoparticules. L'application d'une tension électrique modifie la charge électrique de l'électrolyte ce qui induit des charges électriques a la surface des nanoparticules. Le nombre d'électrons dans le nuage atomique est ainsi modifie. Cet effet est bien connu dans le domaine de la physique des semi-conducteurs. Cependant, a la différence des semi-conducteurs, la charge induite dans le cas des métaux ne se propage pas dans une zone aussi large, elle reste au contraire a proximité de la surface. La densité de charge près de la surface est donc si grande (par comparaison avec les semi-conducteurs) que la surcharge peut atteindre plus ou moins un électron par atome. Ce qui signifie qu'il est en principe possible que l'atome prenne les caractéristiques chimiques de son atome voisin dans le tableau périodique des éléments. BE Allemagne : http://www.adit.fr
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
IBM vient de réussir à émettre de la lumière à partir de molécules de carbone, une découverte capitale en matière de recherche qui pourrait permettre un jour de fabriquer des ordinateurs encore plus petits et plus rapides. L'équipe d'IBM a étudié l'utilisation de nanotubes de carbone, des fibres de molécules 50.000 fois plus fines qu'un cheveu. IBM explique que la mise en oeuvre de ces nanotubes a non seulement permis de faire passer le courant électrique, mais aussi de produire de la lumière. Cette propriété pourrait à terme être utilisée pour transférer des informations à très haute vitesse, le photon et la transmission optique se substituant progressivement à l'électron et à l'électronique. La structure développée par les chercheurs d'IBM est constituée d'une mince feuille de graphite pur enroulée pour former un cylindre de la taille d'une molécule, soit à peine 1,4 nanomètre de diamètre. Elle a permis aux scientifiques de fabriquer des transistors à effet de champ (FET), devenus source de lumière. Cette lumière est émise lorsque des électrons et des "trous" chargés positivement, introduits simultanément à chaque extrémité du nanotube, se rencontrent et se recombinent. David Tomanek, un professeur de physique de la Michigan State University, qui a travaillé avec NEC, au Japon, sur le même sujet, compare le phénomène avec l'utilisation d'un faisceau lumineux nanométrique (un nanomètre équivaut à un milliardième de mètre) qui pourrait être allumé et éteint à la demande. Il explique que la lumière permet de transporter plus d'informations à la seconde que des fils électriques ce qui, dans un avenir lointain, pourrait être utilisé pour accélérer au sein des ordinateurs la transmission de données entre le microprocesseur et la mémoire interne. Il faudra toutefois encore une dizaine d'années de recherche avant que cette technologie ne sorte des laboratoires et soit intégrée dans des produits commerciaux souligne Phaedon Avouris, le patron de la nanotechnologie au département de recherche d'IBM. Pendant ce temps les recherches vont se poursuivre activement pour préparer "l'après-silicium dans les "puces" qui sont les "moteurs" de nos ordinateurs. Ce saut technologique est capital car au rythme actuel les limites physiques de la miniaturisation sur silicium seront atteintes d'ici 15 ans au plus. Brève rédigée par @RT Flash IBM : http://www.research.ibm.com/resources/news/20030501_cntle.shtml Science du 2-05-2003 : http://www.sciencemag.org/cgi/content/abstract/300/5620/783?etoc
|
|
|
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Le trou noir est sans doute l'objet le plus mystérieux du cosmos. Son nom lui-même touche notre inconscient et notre subjectivité par des résonances multiples, oniriques et intimes. Pourtant, les trous noirs sont des constructeurs d'univers et nous venons d'apprendre que, sans eux, nous ne serions peut-être pas là ! L'Univers s'est organisé sous l'action de deux forces antagonistes. D'une part, la formidable expansion qui a succédé au big bang et qui a «lancé» aux quatre coins de l'Univers une matière initialement concentrée dans une tête d'épingle. D'autre part, la force de gravité - dont on sait depuis Newton qu'elle agit pour rapprocher tous les corps en fonction du produit de leur masse et de l'inverse du carré de leur distance, et qu'elle a une action antagoniste à l'expansion - va, petit à petit, organiser l'Univers et lui donner une architecture, mettre en place les objets qui le constituent. Or la force de gravité exercée par un objet est d'autant plus intense qu'il est lourd et que son rayon est faible. Autrement dit, que sa densité est élevée. Lorsque la densité d'un objet est extrêmement élevée, il peut même tellement attirer les photons qui constituent la lumière qu'ils en courbent les rayons lumineux au point que ceux-ci se retournent sur eux-mêmes. La lumière est donc piégée et ne peut s'échapper. Sans lumière pour signaler sa présence, l'objet est noir ; on ne le voit pas directement, car la lumière est le messager de l'Univers: c'est un trou noir invisible. Invisible. Mais pas indétectable. Lorsque les théoriciens de l'astrophysique prédirent l'existence des trous noirs, l'espoir de la confirmer rapidement était mince. Pourtant, il y a bien une méthode pour détecter un trou noir: l'observation des étoiles qui tournent autour d'un centre que l'on ne voit pas bien du tout. Pourquoi cette difficulté d'observation autour d'un trou noir ? Ce trou exerce une attraction sur les objets qui passent à proximité et peuvent tourner autour du trou noir comme les planètes autour du Soleil. Si l'objet en orbite est trop près du trou noir, il tombe dedans et se retrouve anéanti, «noirci». Au-delà d'une certaine distance, en revanche, il peut continuer à tourner. Si cette rotation est très rapide, elle provoque des phénomènes secondaires très lumineux et d'autant plus intenses que le trou noir est gros, créant à l'inverse les objets les plus lumineux de l'Univers: les quasars. Cette illumination empêche de distinguer les étoiles plus pâles qui tournent autour du trou noir. Parce qu'ils sont directement inobservables et entourés de lumière intense, les trous noirs sont donc très difficiles à détecter. D'autant plus qu'ils se situent à des milliers, des millions ou des milliards d'années-lumière et que la lumière qui nous parvient de ces distances est très faible. Pourtant, la première détection d'un trou noir fut réalisée par le satellite Uhuru, lancé le 12 décembre 1970, qui travailla trois ans et décela, grâce aux rayons X, la première étoile qui semblait tourner autour de «rien». Cette découverte vaudra à l'Italien (aujourd'hui américain) Riccardo Giacconi le prix Nobel de physique en 2002. A partir de là, des évidences occasionnelles ont révélé, ici ou là, des trous noirs. Dans cette chasse, des résultats extraordinaires ont été obtenus à la fin de 2002 par une équipe franco-allemande à l'aide d'une technique révolutionnaire: l'optique adaptative. Le grand adversaire de l'astronome, c'est l'atmosphère. Elle absorbe la lumière céleste d'une manière capricieuse, car elle bouge et vibre sans cesse. Sans parler des nuages et de la pluie. C'est pour cela que les astronomes ont installé leurs télescopes aux sommets des montagnes, puis dans les satellites. Dans l'optique adaptative, grâce à l'utilisation des ordinateurs, on peut corriger les perturbations introduites par l'atmosphère en déformant les miroirs des télescopes qui reçoivent la lumière. On obtient ainsi des images beaucoup plus précises du ciel. Grâce à cette technique, les astronomes franco-allemands ont pu filmer une étoile tournant autour d'un trou noir situé au centre même de notre galaxie, la Voie lactée, formée de milliards d'étoiles qui tournent autour de son centre en dessinant des spirales élégantes. Donc, notre Terre et notre Soleil tournent autour d'un trou noir. Cela semble confirmer l'hypothèse selon laquelle au centre de chaque galaxie il y aurait toujours un trou noir, et même un très gros trou noir (super black hole) ! Ainsi, de fil en aiguille, on pense que, pendant les 15 milliards d'années qui ont succédé au big bang, l'Univers s'est organisé en donnant naissance à des étoiles comme notre Soleil, à des centaines de milliards d'étoiles regroupées en galaxies, qui se comptent elles-mêmes par milliards. Les trous noirs ont joué un rôle fondamental pour rassembler ces milliards d'étoiles et les organiser en galaxies grâce à la gravité. Les trous noirs sont peut-être des objets rassembleurs de matière, organisateurs d'univers, qui ont empêché la matière primitive, composée d'hydrogène et d'un peu d'hélium, de s'étendre en une immense nébuleuse floue de laquelle rien n'aurait émergé. Les trous noirs ont peut-être été les adversaires du chaos cosmique. Express : http://www.lexpress.fr/Express/Info/chroniques/Dossier/allegre/dossier.asp
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
A partir du 1er octobre prochain, la face la plus visible des paquets de cigarettes portera en blanc sur fond noir l'une des deux inscriptions: «Fumer tue» ou «Fumer nuit gravement à votre santé et à celle de votre entourage». Cette mention devra occuper au moins 30% de la surface concernée. Sur l'autre côté devra figurer l'un des 14 avertissements précisant les effets nocifs du tabac sur la santé. Avec près de six mois de retard, la France se met ainsi en conformité avec la directive européenne «Byrne», du nom de son rapporteur. Il était temps. Selon l'Organisation mondiale de la santé (OMS), 4,6 millions de personnes sont mortes l'année dernière d'une consommation excessive de cigarettes. En France, 60 000 décès par an sont attribués à ce produit. Les risques du tabagisme sont maintenant avérés par de nombreuses études scientifiques. Voici celles que la Commission de Bruxelles a retenues pour étayer ses avertissements. Les fumeurs meurent prématurément. Cette assertion a été prouvée, pour la première fois, par une étude menée entre 1945 et 1985, grâce à l'armée américaine. Après guerre, celle-ci a fourni un échantillon de 1 515 vrais et faux jumeaux, l'un fumant et l'autre pas. Ils ont été suivis sur une période de quarante ans. Conclusion: qu'il soit mono ou hétérozygote, le fumeur a une longévité deux fois moindre que celle de l'abstinent. Une étude épidémiologique britannique montre que 80 % des gens n'ayant jamais fumé atteignent 70 ans. La proportion est de 50% chez ceux qui consomment plus de 25 cigarettes par jour. A 85 ans, un tiers des non-fumeurs sont toujours vivants, contre 8 % des fumeurs. Fumer provoque le cancer mortel du poumon : En 1950, le médecin anglais Richard Dole quantifie ce lien de cause à effet : le tabac multiplie par 10 les risques de cancer du poumon. Fumer bouche les artères et provoque des crises cardiaques et des attaques cérébrales : L'enquête sur les jumeaux américains a révélé que la moitié des décès des fumeurs est d'origine cardio-vasculaire. Véhiculée par le sang, la nicotine se dépose sur les artères coronaires. Des caillots se forment, provoquant un phénomène de thrombose: «La victime classique, c'est l'homme de 50 ans qui disparaît en quinze minutes d'un infarctus du myocarde», assure Gérard Dubois, professeur de santé publique et président du Comité national contre le tabagisme. Fumer pendant la grossesse nuit à la santé de votre enfant : Le risque de grossesse extra-utérine augmente de 30 à 150 % chez les fumeuses. La cigarette est également cause d'avortements spontanés. Les grosses consommatrices ont par ailleurs plus de mal à concevoir un bébé après avoir cessé de prendre un moyen contraceptif. A la naissance, les enfants pèsent, en moyenne, 200 grammes de moins que le poids normal attendu. Protégez les enfants: ne leur faites pas respirer votre fumée : En France, selon un rapport de l'Académie de médecine publié en 1999, le tabagisme passif a provoqué annuellement 2 500 décès par maladie cardio-vasculaire, 100 cancers du poumon chez les adultes et 100 chez des enfants. Le risque d'asthme pour l'enfant est multiplié par 1,5 quand les deux parents fument. Lorsque la mère est seule consommatrice, les risques d'otite récidivante sont multipliés par 2. La probabilité d'apparition d'une bronchite s'accroît de 70 %. Selon le ministère de la Santé américain, chaque année, 225 000 enfants atteints de cette maladie la doivent au tabagisme de leur entourage. Arrêter de fumer réduit les risques de maladies cardiaques et pulmonaires mortelles : Le tabac accélère le vieillissement de l'organisme. A 70 ans, un fumeur invétéré a en réalité un corps de 79 ans. Plus il arrête tôt le tabac, plus vite il retrouve sa courbe normale de vieillissement et moins il a de risques de développer un cancer du poumon. Selon une étude britannique, 16 % des fumeurs qui ont atteint les 75 ans risquent de développer un cancer. Cette éventualité ne concerne que 6 % de ceux qui ont arrêté de fumer à 50 ans, 2 % de ceux qui ont arrêté à 30 ans et 1 % de ceux qui n'ont jamais commencé. Une étude sur l'incidence de l'infarctus du myocarde chez les hommes de 40 à 50 ans, publiée en 1996 dans l'American Journal of Cardiology, conclut elle aussi à une diminution du risque d'autant plus importante qu'on a cessé très tôt de consommer. Fumer crée une forte dépendance, ne commencez pas : Une enquête effectuée sur 332 adolescents français ayant commencé à fumer montre que, dès le premier mois, 10% des garçons et 20% des filles ne peuvent déjà plus se passer de cigarettes. Dans l'Hexagone, l'âge moyen d'initiation au tabagisme est de 15 ans. Il faut environ deux ans pour passer de la première cigarette à une consommation journalière. 80% des fumeurs échouent dans leur première tentative d'arrêt. Fumer peut diminuer l'afflux sanguin et provoque l'impuissance : Le groupe de recherche en santé publique de l'université de Californie a compilé vingt ans de travaux scientifiques sur les liens entre tabac et impuissance. Les chercheurs ont identifié 19 études relatant les habitudes tabagiques de 3 819 hommes impuissants. Les six enquêtes rassemblant le plus grand nombre de personnes arrivent toutes à la même conclusion: on rencontre plus d'impuissants parmi les fumeurs. Le tabac agit à la fois sur le système nerveux central et sur le coeur et les vaisseaux qui pompent le sang dans les corps caverneux impliqués dans l'érection. Une étude publiée en 1994 démontre que les fumeurs ont deux fois plus de risques de connaître une panne sexuelle que les non-fumeurs. Fumer provoque un vieillissement de la peau : Le tabac contracte les vaisseaux sanguins. L'apport du sang est diminué, la peau est moins bien nourrie. Elle se flétrit plus vite et devient fragile. Les rides et ridules du pourtour de la bouche et du contour de l'oeil apparaissent plus rapidement chez les fumeuses. Le tabac favorise également la production de radicaux libres, ce qui altère les fibres de collagène et d'élastine. La nicotine diminue par ailleurs la vitesse de cicatrisation de la peau. Express : http://www.lexpress.fr/Express/Info/Sciences/Dossier/tabagisme/dossier.asp?nom=
|
|
|
|
|
|
|
|
L'émergence de nouvelles maladies comme la pneumonie atypique ou le virus du Nil est une réalité avec laquelle il faudra désormais vivre en permanence, a estimé mardi la directrice des Centres de contrôle et de prévention des maladies (CDC) américains, Julie Gerberding."Ces maladies infectieuses émergentes font maintenant partie de notre vie", a expliqué Mme Gerberding devant une commission du Sénat où elle fournissait aux élus américains les dernières informations sur l'épidémie mondiale causée par le Syndrome respiratoire aigu sévère (SRAS). "Même si certaines maladies ont été vaincues par nos progrès, notamment avec les antibiotiques et les vaccins, de nouvelles maladies émergent en permanence, comme le virus du Nil occidental, le staphylocoque doré résistant à (l'antibiotique) vancomycine ou le syndrome pulmonaire à Hantavirus", a encore expliqué la directrice des CDC. "Le SRAS est le dernier exemple nous rappelant de toujours nous tenir prêts à l'inattendu", a poursuivi Mme Gerberding en soulignant l'interconnexion entre les systèmes de santé mondiaux. Interrogée sur la capacité du coronavirus causant le SRAS à muter, Mme Gerberding a répondu que "l'histoire nous a déjà montré que c'était possible". Elle a souligné que l'ampleur de l'épidémie de SRAS "a été causée par l'absence de système de détection rapide" de la maladie en Chine, et par la lenteur des autorités chinoises à faire état de cette l'épidémie. Soulignant que le SRAS causait à sa connaissance "une grave infection chez les patients de tous les groupes d'âge", Mme Gerberding a estimé que "nous n'aurons pas de vaccin avant au moins un an". Elle a également averti que les vaccins déjà existant pour les animaux contre des virus de la même famille que celui causant cette pneumonie atypique chez l'homme "n'offrent pas toujours une protection à 100%". Le taux de mortalité du SRAS atteint désormais 6,3 % au niveau mondial, a précisé Mme Gerberding en estimant que "nous allons devoir travailler dur pour prévenir la contagion" de cette maladie. La directrice des CDC a encore espéré que le SRAS s'avèrera "être une maladie saisonnière", qui pourrait s'atténuer avec le changement de saison, ce qui permettra aux chercheurs de mettre à profit ce répit pour mettre au point des tests de dépistage efficaces, un vaccin ou de découvrir des médicaments antiviraux. Aux Etats-Unis, Mme Gerberding a annoncé que les CDC recensaient désormais 52 cas probables et 220 cas suspects de pneumonie atypique, portant le total à 272 cas. La Californie arrive en tête avec 20 cas probables (35 suspects), devant l'Etat de New-York avec six cas (25 suspects), ont précisé les CDC. Un total de 38 Etats américains comptent des cas probables ou suspects, selon la même source. Les personnes entrant dans la catégorie des cas probables souffrent d'une pneumonie, présentent les symptômes du SRAS (fièvre, toux...) et ont voyagé ou ont été en contact avec une personne ayant voyagé dans une zone touchée par l'épidémie dans les dix jours précédant le début de la maladie. Les personnes placées dans la catégorie des cas suspects répondent aux mêmes critères, mais ne souffrent pas de pneumonie. AFP : http://fr.news.yahoo.com/030430/202/36agr.html
|
|
|
|
|
|
|
|
Une protéine déréglée qui se met à fonctionner en permanence sert de carburant aux tumeurs cancéreuses, leur permettant ainsi d'aller proliférer loin de leur lieu de naissance pour former ce que les cancérologues appellent des "métastases". Une équipe de chercheurs français, belges et américains - dont les travaux sont publiés dans le numéro de mai de la revue Cancer Research - vient de mettre en évidence le rôle de cette protéine, appelée Akt. Cette dernière est continuellement activée dans de nombreux cancers, dont ceux des ovaires, du pancréas, du sein et de la thyroïde. Les chercheurs espèrent, à terme, être en mesure de faire revenir cette protéine dans le droit chemin, pour enrayer la formation des tumeurs à distance. L'enjeu est capital car tant que les cellules restent groupées, la tumeur, localisée, peut être aisément traitée, par chirurgie ou radiothérapie. En revanche, lorsque les cellules se disséminent, l'éradication de la tumeur est nettement plus complexe. C'est le plus souvent à la suite d'accidents génétiques que les cellules, devenues anormales, finissent par échapper à toute régulation. Issues d'une première cellule mutée, les cellules cancéreuses forment alors une tumeur qui devient de plus en plus agressive pour son environnement et échappe à tout contrôle. Et il arrive même que certaines cellules cancéreuses ne se contentent pas de progresser au sein de leur tissu d'origine, mais décident d'aller voir ailleurs. Et c'est là qu'intervient la protéine Akt : ce long cheminement des cellules tumorales dans l'organisme n'est en effet possible que si certaines protéines perdent leur activité tandis que d'autres, comme Akt, l'augmentent. "C'est ce qui leur permet de pénétrer dans un autre tissu, de perforer un vaisseau sanguin ou lymphatique, de se propager avant d'adhérer à la paroi d'un capillaire puis d'envahir un nouveau tissu", expliquent les chercheurs de l'Institut Curie. Le parcours et les organes visés par les cellules tumorales "circulantes" varient généralement selon la nature et l'implantation du cancer primitif. En collaboration avec des équipes belge et américaines, l'équipe de Lionel Larue, de l'Institut Curie à Paris, vient de montrer que l'activation - en continu et non plus en alternatif - de la protéine Akt entraîne notamment une perte d'adhésion entre cellules et une augmentation de leur vitesse de déplacement. "L'activation anormale de la protéine Akt confère aux cellules la mobilité nécessaire pour aller envahir d'autres tissus et former des métastases", estiment les chercheurs de l'Institut Curie. Désormais, ajoutent-ils, l'enjeu est d'agir sur cette protéine pour éviter l'invasion par des cellules tumorales d'autres tissus. Caducée : http://www.caducee.net/afp/edit.asp?id_depeche=15799
|
|
|
|
|
|
|
|
Le syndrome respiratoire aigu sévère (SRAS) semble moins grave chez les enfants que chez les adultes, selon des observations préliminaires faites par une équipe de médecins chinois publiées en ligne par la revue médicale britannique The Lancet.L'équipe du Pr Tai Fai Fok, de l'Université de Hong Kong, a suivi les dix premiers enfants traités pour SRAS, âgés de 18 mois à 16 ans. Les médecins chinois ont distingué deux formes cliniques de la maladie, selon l'âge des patients : les adolescents (13 à 16 ans), qui présentent des symptômes identiques à ceux des adultes - douleurs musculaires, frissons, rigidité et douleurs musculaires - et les enfants (18 mois à 7 ans et demi), qui eux, souffrent de symptômes plus bénins, toux, nez qui coule. Le développement de la maladie s'est également révélé moins grave et plus court chez les patients les plus jeunes. Selon le Pr Tai Fai Fok - qui souligne qu'au 25 avril, aucun enfant n'a succombé dans le monde à cette forme atypique de pneumopathie - ces observations suggèrent que les plus jeunes malades développent une forme atténuée et moins agressive du SRAS. Le médecin relève en outre qu'aucun des enfants atteints qui fréquentaient l'école (huit sur les dix suivis) n'a transmis la maladie à un de ses camarades, ce qui laisse penser que la forme "enfantine" du SRAS aurait un moins grand pouvoir contaminant que la forme adulte. Depuis son apparition en Chine fin 2002, le SRAS a fait plus de 330 morts dans le monde - principalement en Asie et au Canada - pour plus de 5.000 cas probables signalés. Lancet : http://www.thelancet.com/journal/vol361/iss9367/full/llan.361.9367.early_online_...
|
|
|
|
|
|
|
|
Diagnostic à distance, enseignement, éducation sanitaire... la télémédecine se développe progressivement et... inégalement. En France, le modèle à suivre est celui de la région Midi Pyrénées où un vaste réseau s'est constitué autour du Pr Louis Lareng. Ce Toulousain grand teint n'en est pas à sa première innovation ! Il est en effet l'un des fondateurs de la doctrine qui a vu créer les SAMU. A ses yeux, « plus qu'un simple outil, la télémédecine correspond vraiment à une nouvelle pratique médicale ». Fait unique en France, le réseau de Midi Pyrénées est constitué aujourd'hui de 39 hôpitaux publics et privés rassemblés dans un Groupement d'Intérêt Public (GIP). « Et une douzaine sont sur le point de nous joindre », poursuit le Pr Lareng. « Notre objectif est de donner un accès égal à des soins de qualité en tout point du territoire. Ce réseau pallie également les problèmes rencontrés par les malades dans les endroits à faible densité médicale. Un petit centre de soins isolé, confronté à un traumatisme crânien, peut solliciter par exemple un urgentiste, un neurochirurgien et un radiologue du CHU le plus proche, scanners et autres radios à l'appui... ». Sans bénéficier d'un si vaste réseau, de nombreux CHU en France sont équipés pour la télémédecine. C'est le cas du CHU de Nantes où quelques médecins motivés ont constitué un réseau avec les établissements d'Angers, du Mans, de la Roche-sur-Yon, Laval, Cholet et Saint-Nazaire... « La télémédecine a révolutionné (mon) quotidien », n'hésite pas à déclarer le Dr Françoise Méchinaud, responsable du service d'oncopédiatrie. Au cours de réunions bimensuelles tous les dossiers épineux de la région sont ainsi soumis aux différents spécialistes : chirurgiens, biologistes, radiothérapeutes... « La décision est toujours multidisciplinaire. Les parents sont rassurés et nous, les médecins, nous gagnons un temps précieux car nous n'avons plus à sillonner la région pour discuter des différents cas. » Proximité avec les patients, gain de temps et donc économie de moyens, la télémédecine peut être une solution à la crise économique, sociale voire morale que traverse le secteur hospitalier français. Destination Santé : http://www.destinationsante.com/
|
|
|
|
|
|
|
|
A trop s'entêter contre le culture des Organismes génétiquement modifiés, estime Jean-Marc Pastor, élu socialiste du Tarn, rapporteur de la mission sénatoriale sur les OGM, l'Union européenne prend un retard considérable en matière de recherche. Au terme d'une enquête de 16 mois et d'échanges avec les Etats-Unis et les autres pays européens, le Sénat a acquis diverses certitudes : toute décision relative aux biotechnologies doit laisser le choix au consommateur et l'informer clairement. A cet égard, les textes européens sur l'obligation de traçabilité et d'étiquetage des produits lui paraissent un bon garde-fou. Adoptés en première lecture, ils doivent encore faire l'objet d'une deuxième lecture du Parlement européen. Le Sénat estime en outre que les formes plus traditionnelles d'agriculture ou l'agriculture biologique devront être conservées et protégées. Enfin, les contrôles des OGM devront se faire dans la plus grande transparence, afin de regagner la confiance des consommateurs à l'égard des politiques et des scientifiques. Ces principes posés, les sénateurs considèrent que l'UE «ne peut pas rester dans sa bulle» en maintenant le moratoire, qui, depuis quatre ans, suspend toute autorisation de nouvelle variété OGM. Jean Bizet, sénateur de la Manche, souligne que les Français cultivent la contradiction sur le sujet à cet égard. Ils consomment ainsi du fromage, alors que 70% d'entre eux sont fabriqués à partir d'une enzyme issue d'une bactérie génétiquement modifiée : l'escherichia coli. Près de 70 % des nos aliments sont issus de biotechnologies sans que le consommateur s'en doute. Les animaux d'élevage sont nourris au soja OGM, que l'Europe importe en grandes quantités. Un médicament sur six est issu du génie génétique. Les enjeux économiques à la clé de l'acceptation des OGM sont immenses, affirme Jean Bizet : 250.000 emplois ont été perdus par l'UE au cours des dix dernières années faute d'une politique volontariste en la matière. Si rien ne change, la part de l'Europe dans le commerce international passera de 22 % aujourd'hui à 12 % d'ici 2050. Les onze propositions : Lever le moratoire, protéger la recherche, qui respecte un cahier des charges protéger l'agriculture traditionnelle et biologique, fixer des seuils réalistes de résidus d'OGM dans les cultures classiques, couvrir le risque OGM (pollinisation accidentelle etc ...)en créant un fonds de mutualisation auquel contribueraient les semenciers et l'Etat, apporter un soutien financier «sans faille» à la recherche privée et publique, lutter contre l'appropriation du vivant en défendant la certification d'obtention végétale devant l'OMC et en ne défendant que la brevetabilité du couple gène-fonction, aider à mettre en place une biovigilance dans les pays en voie de développement qui adoptent les OGM, informer les élus locaux et les administrés de ce qui se passe sur le territoire de leurs communes, adopter une loi fondatrice sur les biotechnologies, qui pose les limites éthiques à la transgenèse notamment. Les Echos : http://fr.news.yahoo.com/030430/3/36axb.html
|
|
|
|
|
|
|
|
Une équipe de chercheurs franco-américaine (Ecole de médecine de l'Université de Pennsylvanie et Centre de Neurochimie du CNRS à Strasbourg) a réussi à produire des ovocytes à partir de cellules souches embryonnaires, qui se sont développés jusqu'aux premiers stades de l'embryon, une première aux implications importantes pour la recherche sur la fertilité et le clonage. Il s'agit de la première démonstration in vitro du caractère totipotent des cellules souches, c'est à dire de leurs capacités à produire en laboratoire tous les types de cellules, y compris reproductives. La découverte a également d'importantes implications éthiques puisque les ovocytes obtenus in vitro peuvent à leur tour produire des cellules souches embryonnaires, dont la culture ne peut-être considérée comme une atteinte à la vie au même titre que le prélèvement de cellules souches sur un embryon naturel, selon les chercheurs. Jusqu'à présent, les cellules souches cultivées in vitro étaient considérées comme pluripotentes, c'est à dire capables de produire tous les types de cellules sauf celles constituant les ovocytes et spermatozoïdes. Ces travaux ont permis d'isoler des cellules souches exprimant un gène spécifique de lignée germinale, dont les chercheurs ont suivi le développement dans des conditions leur permettant de produire une lignée de cellules germinales, des cellules destinées à la reproduction. Ces cellules ont ensuite connu l'étape de la méiose, faisant partie du processus de production de gamètes, les cellules reproductrices. Puis ces cellules ont poursuivi leur développement jusqu'au blastocyste, premier stade de l'embryon, malgré l'absence de fécondation des ovocytes. "La plupart des chercheurs pensaient qu'il était impossible de produire des gamètes à partir de cellules souches en dehors de l'organisme", a expliqué Hans Schoeler, de l'école vétérinaire de l'Université de Pennsylvanie, qui a mené la recherche. M. Schoeler a souligné que l'obtention d'ovocytes in vitro pourrait fournir une nouvelle méthode de production de cellules souches embryonnaires qui contournerait les problèmes éthiques attachés au prélèvement de ces cellules souches sur des embryons. L'implantation du noyau de n'importe quelle cellule d'un patient dans un tel ovocyte pourrait alors permettre la production de cellules souches embryonnaires totipotentes, ouvrant la voie à des traitements cellulaires sur mesure pour traiter un patient, selon le chercheur. Les scientifiques sont parvenus aux mêmes résultats avec des cellules souches mâles et femelles, qui se sont toutes développées en gamètes femelles, et cela sans avoir recours à des hormones de croissance ou un procédé particulier. Les chercheurs veulent maintenant déterminer si les ovocytes produits in vitro peuvent être fécondés. "Nous aimerions utiliser ces ovocytes comme une base de clonage thérapeutique, et nous espérons que des résultats identiques peuvent être obtenus avec des cellules souches embryonnaires humaines", a encore déclaré M. Schoeler. Science : http://sciencenow.sciencemag.org/cgi/content/full/2003/501/1
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|