|
|
Edito
La ville : c'est une boîte de vitesse
Comme le proclamait dès 1991 l'urbaniste et essayiste Paul Virilio, une ville est bien une boîte de vitesse. Une ville arabe avec sa médina, où la notion de temps est totalement étrangère à la vision moderne de la vitesse, est une ville frein. Comme le fut la Rome antique, dans notre ère moderne des villes comme Paris ou New-York sont des villes accélératrices. Haussmann avait compris avant beaucoup d'autres que le sort de la ville du futur reposerait sur la capacité d'accélérer les échanges. Les urbanistes de New-York poussèrent plus loin encore l'audace en ajoutant la troisième dimension, les échanges verticaux avec les gratte-ciel aux circulations horizontales accélérées par Haussmann. De tout passé, il faut retenir une leçon : une ville est d'autant plus riche et a donc plus d'avenir dans la terrible compétition qui monte en puissance entre les principales agglomérations du monde que celle-ci est rapide. Le temps est donc venu de définir ce qu'est une ville rapide. A l'encontre de ce que voudraient nous faire croire certains urbanistes, bien en cour actuellement, je ne pense pas que les transports en commun de surface, même les plus élaborés et les plus protégés comme le tramway, soient des facteurs accélérateurs pour la ville. Pourquoi ? Parce que, globalement, les transports en commun utilisant des sites propres comme le tramway réduisent d'autant les surfaces qui restent disponibles pour les autres moyens de déplacement tels que l'automobile. Les urbanistes à la mode et les responsables politiques qui les suivent répondront à cette remarque que cette réduction de surface réservée à l'automobile a pour but d'inciter les utilisateurs de ce moyen de transport à laisser leur voiture au garage et à utiliser le tramway. C'est là que réside l'erreur fondamentale. Toutes les expériences dans le monde mettent en évidence qu'il est très difficile de convaincre, dans nos pays modernes, plus de 30 % de la population d'une cité à utiliser les transports en commun pour ses déplacements quotidiens et, pour diverses raisons sur lesquelles je viendrai dans quelques instants, ce chiffre ne progressera pas dans un sens favorable avec les moyens actuels de transports collectifs. Cela veut dire qu'avec cynisme, les urbanistes et les politiques font le choix de ralentir les déplacements de quelque 70 % des habitants de la cité : ce n'est pas ainsi que nous rendrons plus rapides, donc plus compétitives, nos agglomérations. En cet instant, ceux qui ne lisent pas mes éditoriaux depuis plusieurs années pourraient croire que je fais partie de ces « affreux » qui défendent mordicus l'automobile. Ils se trompent. J'ai aussi la certitude que si rien n'était entrepris, et maintenant les décisions qui s'imposent deviennent urgentes, inexorablement, la ville irait vers l'asphyxie dans les deux décennies qui viennent. Ce qui est nécessaire, c'est de trouver les moyens d'accélérer les déplacements, non pas de 30% de la population d'une agglomération mais de l'ensemble des résidents ou des visiteurs qui veulent s'y déplacer. Avant de reprendre des solutions que j'ai déjà suggérées dans mes éditoriaux des lettres n° 63 du 18/09/1999 et le n° 80 du 15/01/2000 (http://www.tregouet.org/lettre/index.html) je pense qu'il est nécessaire de rappeler les diverses obligations que devront respecter les systèmes globaux de déplacement dans les grandes cités de demain. Bien que gérés par la collectivité, les transports publics ou privés devront respecter les exigences de liberté, de sécurité, de convivialité, d'efficacité mais aussi de respect de la nature et de la vie que désirent imposer nos concitoyens. La collectivité ne répond pas à ces exigences avec les moyens actuellement mis en oeuvre. -# La liberté veut dire que chacun veut avoir la possibilité de partir d'un point précis pour se rendre à un autre point précis, dans un temps garanti et ce, au moment où il le désire, en transportant avec lui les objets qu'il veut (ne serait-ce que les courses hebdomadaires...) -# La sécurité des personnes ne peut pas être garantie avec les moyens massifs actuels des transports en commun. Ecoutons les doléances des femmes ou des personnes âgées qui, à partir d'une certaine heure, ne veulent plus utiliser les transports en commun, pour en être convaincu. -# La convivialité est aussi un élément déterminant pour le choix d'un mode de déplacement. Or, il suffit de prendre un métro ou un tramway à 7 heures du matin et de voir les visages fermés sinon tristes des usagers pour comprendre que l'utilitaire est là bien loin du plaisir. -# L'efficacité, qui est un mot souvent très peu usité dans les déplacements urbains, est pourtant un facteur déterminant dans le choix du mode de déplacement. En effet, nous n'avons pas assez conscience que les Français passent quelque 20 milliards d'heures par an en temps de déplacements divers. Je crois, sans exagération, que la plupart des personnes qui se déplacent en ville, soit avec leur voiture souvent retenue dans des embouteillages monstres, soit dans les transports en commun, jugent ce temps de déplacement urbain comme du temps « perdu ». Même si le téléphone portable a su donner une certaine valeur à ce temps perdu, ces temps de déplacements stériles usent de plus en plus l'image moderniste que veut donner d'elle-même la ville. A toutes ces exigences personnelles s'ajoute une demande collective : les déplacements dans nos grandes agglomérations devront de plus en plus respecter la nature mais aussi la vie. Il n'est plus possible que nous continuions longtemps encore à polluer par nos déplacements la grande cité : l'air pur, la lumière solaire sans filtre, les espaces verts et le silence doivent pouvoir reconquérir l'environnement de chaque citadin. Par ailleurs, l'automobile provoque par accidents plusieurs milliers de morts par an dans l'ensemble de villes de France : cela aussi ne peut plus continuer. Enfin, les déplacements urbains tels que nous les subissons actuellement coûtent non seulement beaucoup en temps, ce qui a donc des conséquences financières directes, mais ont des coûts d'usage réels (en prenant en considération la part prise en charge par la collectivité) qui sont trop élevés, aussi bien pour les transports en commun que pour l'automobile. En reprenant ces divers points d'un cahier des charges particulièrement exigeant, nous pourrions penser, a priori, que nous ne trouverons pas de réponse à une problématique aussi complexe. A mon avis, il en existe pourtant une et je porte l'intime conviction qu'elle s'imposera dans les deux décennies qui viennent. Tous les grands constructeurs mondiaux d'automobiles, avec de nombreuses années de décalage avec l'aviation, sont en train d'industrialiser des véhicules dont toutes les commandes seront électriques. Ceci veut dire qu'avant dix ans, il n'y aura plus aucun lien mécanique entre le conducteur et sa voiture, que ce soit au niveau de l'accélérateur, des freins, de l'embrayage et même de la direction. Dans un premier temps, ces commandes électriques avec leur environnement informatique ne joueront qu'un rôle d'aide au pilotage pour compenser ou corriger tous les actes « déraisonnables » de pilotage du conducteur. Dans un second temps, à un horizon que nous pouvons situer à une quinzaine d'années, quand le positionnement lié aux suivis satellitaires et radioterrestres sera devenu suffisamment précis (moins de 10 cm d'erreur) et que le véhicule sera mû par l'électricité, elle-même fournie par de l'hydrogène qui, en se mélangeant à l'oxygène de l'air, ne rejettera plus que de l'eau au lieu du sinistre CO² actuel, le pilotage de l'automobile pourra devenir totalement automatique comme l'est déjà depuis longtemps le pilotage d'un avion. A partir de ce moment, tous les pays les plus développés du monde auront intérêt à favoriser la gestion par la collectivité de ces flottes de cybercars automatiques qui sillonneront les villes. Dans leur structure, il n'y aura plus de différence entre le véhicule de transport public et le véhicule de transport privé. La seule différence : dans le premier cas, le véhicule sera la propriété de la collectivité, dans le second il sera acquis par une personne privée ou une entreprise. Ces véhicules gérés par les automates de la collectivité occuperont au mieux le territoire public, ne connaîtront plus les embouteillages, assureront les parcours demandés dans des temps garantis dès le départ, ne provoqueront plus d'accidents et répondront aux exigences de liberté, de sécurité, de convivialité, d'efficacité mais aussi de respect de la nature et de la vie que veulent imposer les habitants des grandes agglomérations. Pour la liberté, quel que soit l'endroit où vous vous trouverez dans l'aire gérée par les robots de la collectivité, il vous suffira, puisque des liens très forts vont se tisser entre le monde des télécommunications et celui de l'automobile, d'appuyer sur un bouton spécifique qui se trouvera alors sur votre téléphone portable pour qu'immédiatement vous soyez positionné au mètre près par le système de localisation et que vous entendiez dans votre téléphone l'heure exacte à laquelle un cybercar public ou votre cybercar personnel viendra vous prendre. En montant dedans, il suffira de dire à haute voix votre nom, votre numéro de code et l'adresse à laquelle vous voulez vous rendre pour que le véhicule démarre et que le système vous annonce immédiatement l'heure précise à laquelle vous arriverez à destination. Pour la sécurité, les cybercars publics (comme les cybercars privés), étant des véhicules de quatre ou six places maximum, il vous suffira de préciser, en appuyant sur une touche supplémentaire de votre portable, lors de votre appel, que vous désirez être seul dans le véhicule qui vous transportera pour que ce soit un cybercar vide qui vienne vous prendre en charge. La seule différence est que la facture mensuelle que vous recevrez alors comme vos notes de téléphone et qui vous sera adressée par la collectivité sera légèrement plus élevée. Je dis bien « légèrement » car la collectivité gérant alors 100 % des déplacements en milieu urbain au lieu des 20 ou 30 % actuels, les coûts par personne prise en charge devraient nettement baisser. Pour la convivialité, la différence sera énorme. En effet, les habitants des grandes cités pourront faire leur déplacement en famille ou entre amis dans de petits modules au lieu de grandes caisses actuelles où sont entassées à certaines heures plusieurs centaines de personnes qui ne se connaissent pas, qui souvent s'ignorent et qui, en arrivent même parfois à se disputer pour des sujets qui paraîtraient tout à fait véniels dans un environnement moins stressant. Mais c'est au niveau de l'efficacité que le bond sera le plus extraordinaire. En effet, pour les personnes qui le voudront, il n'y aura plus de temps perdu. Le cybercar du futur sera une véritable forteresse de communication. Elle sera puissamment reliée en large débit au réseau mondial de télécommunication et à Internet. Je suis convaincu, par ailleurs, que c'est dans ce mariage entre l'automobile et la télécommunication qu'il faut rechercher la « Killer application » de la future génération des portables à haut débit actuellement appelée UMTS. Le cybercar se transformera donc en bureau, en lieu de consultation de ses mails, en lieu de navigation sur Internet, en outil de développement du commerce électronique. Les agglomérations qui, les premières, feront le choix de généraliser ces nouveaux systèmes globaux de déplacement, seront celles qui auront le plus d'avenir car elles seront les villes accélératrices qui permettront de gagner du temps tout en améliorant la qualité de la vie de ses habitants. Il faut que les responsables politiques des principales agglomérations françaises comprennent, sans retard, toute l'importance du choix qu'ils ont à faire car l'avenir de nos enfants sera étroitement lié à la capacité de nos grandes villes de générer dans des temps très brefs un maximum d'échanges pour produire des richesses qui leur seront nécessaires pour gagner la bataille du futur. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Aussi omniprésent qu'il puisse paraître, le web reste un média limité en termes d'audience, des millions de personnes ne disposant d'aucune connexion faute de besoin ou d'argent, mais aussi d'intérêt, révèle une étude menée dans 30 pays par Ipsos-Reid. La première des raisons, invoquée par 40 % des personnes interrogées, est que le besoin ne s'en fait pas sentir. Le manque d'équipements informatiques arrive en deuxième position avec 33 % des réponses alors que 25% évoquent un intérêt insuffisant. Le nombre total d'internautes, évalué sur la base de différentes recherches, ne représente que 6 % de la population mondiale, ajoute l'étude. "Dans les pays développés, un nombre important de personnes qui pourraient aisément s'équiper ont décidé de ne pas le faire", commente Brain Cruikshank, vice-président d'Ipsos-Reid. "Ils ne voient aucune raison convaincante de se connecter. Le battage et les promesses d'internet ne les a clairement pas impressionnés... pas pour le moment en tout cas." L'étude précise que 16 % des personnes privés d'accès expliquent leur situation par des difficultés de compréhension. Le coût financier est un obstacle invoqué par 12 % des sondés et 10 % disent ne pas avoir le temps nécessaire. Elle ajoute que 400 millions d'internautes font un usage quotidien de leur connexion. En tête du classement des Nations, la Suède compte 65 % d'utilisateurs fréquents. Le Canada (60 %) et les Etats-Unis (59 %) s'adjugent les places d'honneur. En Inde, l'usage fréquent ne concerne que 9 % des citadins. Ce chiffre tombe à 6 % pour la Russie où 83 % de la population se dit privée d'accès. Les auteurs précisent que dans les zones les plus densément peuplées, 98 % des personnes interrogées possèdent une télévision, 51 % sont équipés d'un téléphone portable, 48 % d'un ordinateur et 36 % des internautes disposent d'une connexion domestique. Reuters : http://fr.news.yahoo.com/010614/85/1d0a7.html
|
|
|
|
|
|
|
|
Deux heures après les premières lueurs du jour, les volets roulants se lèvent, les alarmes se désactivent ; dans la salle de bains, le sèche-serviettes passe en préchauffage, l'eau dans la bouilloire commence à frémir. Le premier prototype français de maison communicante, « mam@isonnet », né d'un partenariat entre le fabricant de matériel Internet Cisco, le promoteur immobilier Kaufman & Broad et France Télécom, prépare le lever de ses habitants. Ils n'ont pas encore ouvert les yeux mais, la veille, ils ont programmé l'« ambiance réveil » sur la centrale de gestion. Avant de partir travailler, ils jetteront un coup d'oeil sur la météo et sur l'état des trafics routier et ferroviaire donnés par le Web. Depuis un écran placé sur un mur, à partir de n'importe quel ordinateur, d'un téléphone WAP ou d'un assistant numérique, de l'intérieur comme de l'extérieur, chaque membre de la famille peut accéder à la page d'accueil de l'intranet domestique grâce à un code personnel. A la vitesse d'un clic de souris ou d'une simple pression sur un écran, la « maison intelligente » se met entièrement à la disposition de ses occupants pour contrôler la température et la lumière de chaque pièce, s'assurer que le bébé dort paisiblement dans sa chambre, téléphoner et surfer simultanément depuis le jardin, activer le lave-linge à distance, accéder à un vidéoclub en ligne et à toutes les radios du monde, programmer le four... Parallèlement, l'ensemble du parc des mam@isonnet peut vivre à l'unisson par la commande « Village » de l'interface de contrôle ; on y passe des petites annonces, on recrute une baby-sitter ou on organise un covoiturage. Pour un peu, on comparerait Internet à une véritable petite place de village. L'intranet domestique permet aussi de piloter à distance sa maison et de tout faire fonctionner aussi simplement qu'avec une télécommande. Finis, les demi-tours précipités et les sempiternelles questions : « Toutes les lumières sont-elles éteintes ? Ai-je bien fermé la porte ou branché l'alarme ? » Dépassés, l'anxiété d'un cambriolage et les retours dans une maison glacée : ces données peuvent être vérifiées à des centaines de kilomètres de distance, depuis sa voiture ou depuis son bureau. A en croire les industriels concepteurs du projet, les trente maisons (situées à Etiolles, dans l'Essonne) ont été conçues pour « répondre aux attentes les plus récurrentes du grand public en termes d'habitat : le confort, la communication, la sécurité, l'économie et les loisirs. l'habitation dispose également d'un réseau de données sans fil. Cette technologie qui utilise les ondes radio pour communiquer permet aux utilisateurs de s'affranchir des fils reliant ordinairement les ordinateurs portables à Internet et de se déplacer avec webpad (sorte de cyberardoise magique) et ordinateurs dans toute la maison ou à proximité. L'apparence de ce prototype de maison familiale est plutôt traditionnelle. Pas d'architecture futuriste, de débauche de verre et d'acier, de constellation d'écrans, mais le classique salon cheminée-fauteuils-canapé. La maison est câblée, pas branchée techno. « Ce n'est pas une maison du futur, mais une maison pour aujourd'hui ! » précise Thierry Drilhon, directeur général de Cisco-France. Son prix : 2,5 millions de francs dont un surcoût de l'ordre de 3 % pour le câblage. A chacun d'ajouter ensuite les équipements souhaités. L'arrivée de ces nouvelles « maisons branchées » laisse présager un nouveau départ pour le secteur de la domotique. Le décollage des réseaux domestiques européens est en effet attendu pour cette année, grâce notamment à la généralisation des possibilités de communication à haut débit. Selon une étude du cabinet Basic, le marché européen est estimé à 5 milliards de francs en 2002 et à près de 13 milliards de francs pour 2005. Les maisons pourraient alors devenir aussi intelligentes, sinon plus, que les voitures largement informatisées et ouvertes sur l'extérieur. Une interrogation subsiste toutefois : ces techniques ne pousseront-elles pas les habitants à une sédentarisation accrue au sein d'un cocon numérique ? Un comble pour une maison communicante ! Expansion : http://www.lexpansion.com/article_milieu.asp?id=1065&rub=4
|
|
|
|
|
|
|
|
Microsoft Corp. lance au Portugal sa première application commerciale de télévision interactive. Ce lancement, plusieurs fois repoussé, marque l'entrée du géant du logiciel sur un marché comptant 1,5 milliard de décodeurs et qui pourrait constituer une source alternative de revenus alors que la croissance du marché des PC marque le pas. Preuve de l'importance de l'événement, Steve Ballmer, directeur général de la firme, a fait le déplacement en personne jusqu'à Lisbonne où Microsoft et TV Cabo, premier câblo-opérateur à utiliser l'application, ont célébré le lancement. Selon Josh Bernoff, analyste auprès du cabinet américain Forrester Research, le Portugal devrait permettre à Microsoft d'effectuer un test en vraie grandeur quant à ses chances de succès sur le marché de la télévision interactive. "Si Microsoft réussit au Portugal, elle peut réussir dans beaucoup d'autres endroits. Si elle n'y parvient pas, elle devra plier bagage et quitter le marché de la TV interactive", estime-t-il. Les analystes estiment que ce marché devrait connaître une croissance explosive, passant de 15 millions de foyers connectés en Europe à l'heure actuelle à 70 millions en 2005. La télévision interactive autorise entre autres la réception de messages électroniques, la navigation sur internet, le commerce en ligne et les jeux vidéo. TV Advanced, le système de Microsoft, offre par ailleurs la possibilité d'enregistrer les programmes et autorisera prochainement le téléchargement de vidéo à la demande. AP : http://fr.news.yahoo.com/010607/85/1c9ts.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Intel Corp., premier fabricant mondial de semiconducteurs, vient d'annoncer à Kyoto ( Japon) qu'il était parvenu à réaliser le transistor le plus petit et le plus puissant jamais conçu. Les ingénieurs du centre de recherche de Hillsboro, dans l'Oregon, ont en effet réussi à fabriquer des transistors d'une taille de 20 nanomètres, ou 0,02 micron, contre 0,18 micron pour les plus petits modèles aujourd'hui en circulation. Ces transistors mesurent moins de 80 atomes de large pour 3 atomes d' épaisseur. Ils sont capables de fonctionner à une fréquence 1.5 GHz. Bien que ce nouveau transistor ne soit pas le plus petit des des transistors expérimentaux existant, il a été salués par l'industrie comme une étape decisive car sa fabrication repose sur les technologies conventionnelles employées dans la fabrication des microprocesseurs et des puces. Les transistors constituent l'élément de base des microprocesseurs et une telle avancée permettra de produire d'ici 2007 des processeurs contenant près d'un milliard de transistors avec une cadence de 20 gigahertz, alors que l'actuel Pentium 4 d'Intel contient 42 millions de transistors pour une cadence de 1,7 gigahertz. Cette nouvelle technologie va aussi permettre le réalisation de puces-mémoire de 4 Gigabits, de quoi stocker 333 fois un roman comme "de Moby Dick." Autre avancée, ces nouvelles puces consommeront moins d'un volt d'électricité, c'est à dire à peine la moitié de la consommation des microprocesseurs actuels. A cet égard, les scientifiques d'Intel soulignent que la consommation électrique de chaque nouvelle génération de puces se réduit plus rapidement que la puissance des ordinateurs n'augmente. Selon les spécialistes cette nouvelle avancée devrait permettre à la fameuse Loi de Moore, édictée en 1965, de rester valide jusqu'en 2014. Cette loi que Gordon More a ui même modifié en 1993 prévoit que le nombre de transistors qui peuvent être gravés sur une seule puce de silicium double en moyenne tous les 18 mois. Un des défis principaux dans la production de transistors aussi petits est constitué par les longueurs d'ondes de lumière utilisées par les machines qui gravent ces composants sur des tranches de silicium. Dans la lithographie conventionnelle, un masque est employé avec des secteurs transparents et des secteurs opaques, comme dans un négatif photographique . Cependant, la lumière, en passant dans les zones transparentes s'infléchit légèrement, et dessine une image légèrement floue. Comme ces circuits ont une taille inférieure aux longueurs d' onde utilisées, cela devient un problème crucial. Cependant, les ingénieurs d'Intel ont réussi à surmonter cette difficulté grâce à la technique du " changement de phase," qui permet, en utilisant la lithographie dans l'ultraviolet extrême, de dessiner des circuits avec une finesse et une précision inégalées. Le Docteur Marcyk, responsable des recherches chez Intel, précise que chaque fois qu'il a présenté ses résultats à Andrew Grove, Président et co-fondateur d'Intel, celui-ci lui demande avec insistance :" quelle est la limite de taille que ne nous pourrons pas dépasser". A chaque fois la réponse du Docteur Marcyk est invariablement la même: "Andy, je ne connais pas encore la limite." brève @RTFlash Brève rédigée par @RT Flash NYT : http://www.nytimes.com/2001/06/10/technology/10CHIP.html?searchpv=nytToday
|
|
|
|
|
|
|
|
Pendant qu'Intel poursuit la miniaturisation des transistors vers l'infiniment petit, IBM, en utilisant une propriété des atomes de silicium, vient de développer une technique qui permet une circulation plus rapide des électrons entre ces atomes, sans réduire la taille des transistors. La technique mise au point par IBM est celle du "silicium étiré". Elle consiste à ajouter un maillage d'un mélange de silicium et de germanium au silicium de la puce. Cela augmente la fréquence de commutation de ces derniers, et donc la rapidité des puces électroniques. Les atomes de silicium déposés sur un substrat ont tendance à s'aligner avec les atomes de celui-ci.. Cette propriété d'auto-alignement facilite le passage des électrons entre atomes de silicium. Selon IBM, la vitesse de circulation est alors augmentée de 70%. ce qui se traduit par une augmentation de 35% de celle des puces et par une consommation plus faible d'énergie. Les premières puces en "silicium étiré" sont attendues pour 2003. Elles devraient atteindre une fréquence d'horloge de 5 GHz. Ce saut technologique devrait également permettre de fabriquer des puces pour appareils portables cadencés à 1 GHz qui ne consommeraient qu'un demi watt d'énergie. Décidement l'électronique "classique" sur silicium a encore de beaux jours devant elle ! Brève rédigée par @RT Flash IBM : http://www.ibm.com/news/2001/06/08.phtml BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_1384000/1384452.stm
|
|
|
|
|
|
|
|
Enregistrer le contenu d'un DVD-Rom (4,7 Go) ou de huit CD-Rom (8 x 650 Mo) sur un support de 1 cm'. Impossible? C'est pourtant @l'objectif que se sont fixé les concepteurs d'un nouveau système de stockage des données informatiques: la mémoire holographique. Grâce à cette technologie, nos ordinateurs seront équipés, bientôt, d'un disque dur de 1 téraoctet (1 To = 1 000 Go) et liront des disques contenant l'équivalent de deux cents film de long métrage. Le stockage holographique de données, déjà évoqué dans les années 60, arrive à maturité. Des constructeurs tels qu'IBM et surtout Lucent Technologies, spécialisé dans les équipements pour les télécoms et l'informatique, passent progressivement de la recherche au développement industriel. Pour la plupart d'entre nous, un hologramme, c'est l'oiseau qui orne les cartes bancaires, et l'holographie, une technique pour reproduire des images en trois dimensions. Il s'agit bien ici de la même technique, mais appliquée au stockage des 1 et des 0 que sont les données informatiques. Pour créer un hologramme, il faut deux faisceaux laser et une surface transparente dont les caractéristiques optiques sont modifiées lorsqu'elle est soumise à la lumière. Un des faisceaux laser, dit de " référence "illumine avec une intensité constante la zone où l'on souhaite créer l'hologramme. L'intensité du second faisceau, dit " objet ", est modulé en fonction de l'information que l'on souhaite " graver " dans la matière. Les deux faisceaux ne traversant pas le substrat réactif selon le même angle, leur rencontre crée des interférences. Ce sont ces interférences qui vont laisser des traces dans la matière. Ultérieurement, il suffira d'éclairer la même avec le seul laser de référence pour faire jaillir le faisceau objet de l'autre côté du film photoréactif. Le stockage holographique de données suit ce principe. Mais, avant d'être projeté sur le substrat réactif , le faisceau objet traverse un "damier' dont certaines cases, ouvertes, laissent passer la lumière et d'autres, fermées, la bloquent Modulé selon la configuration du damier, le faisceau objet permet d'inscrire sur le substrat une grille de 1 et de 0 . Chez IBM, le damier est une plaque de cristaux liquides formée de 1024 x 1024 cellules. Des impulsions électriques font passer chaque cellule de la transparence à l'opacité. Chez Inphase Technologies on préfère aujourd'hui utiliser un damier de 1280 x 1024 miroirs mobiles mesurant chacun 13 micromètres de côté. Selon leur orientation, ils réfléchissent ou non le faisceau objet. Avec autant de miroirs, on peut coder d'un seul coup un message de 1,25 Mbits, soit une centaine de pages dactylographiées. Les supports utilisés ont de plus l'intérêt d'autoriser le 'multiplexage', c'est-à-dire l'inscription d'une centaine de 'grilles' sur une même zone, ce qui augmente la densité d'informations stockées. Sur une zone où l'on a déjà inscrit une grille, on peut en effet en imprimer d'autres grilles en changeant à chaque fois l'angle du faisceau de référence. A terme, d'ici 5 ans, la densité de l'information pourrait atteindre 46,5 Gbits/cm2, de quoi enregistrer 8 heures de vidéo ou 32 heures de musique sur une puce de seulement 4cm2 ! Science&Vie : http://www.science-et-vie.com
|
|
|
|
|
|
|
|
Les matériaux organiques plastiques, déjà très largement utilisés, par exemple, dans l'emballage et l'automobile, se sont ensuite imposés dans le monde de l'optique et sont en passe de devenir une technologie clef de la prochaine révolution électronique à faible coût. Alors qu'ils sont communément utilisés comme isolants, leur propriété de conducteur d'électricité a été découverte dans les années 70 et donne lieu cette année à l'attribution du prix Nobel de chimie. Les nouveaux composants organiques présentent les caractéristiques des semi-conducteurs ainsi qu'une facilité de fabrication propre aux matériaux organiques. En quelques dizaines d'années, les progrès scientifiques et technologiques sont tels que les premiers produits commerciaux sont mis sur le marché : écrans à base de diodes électroluminescentes organiques (OLED). Outre l'objectif ultime de développer un écran couleur flexible et enroulable sur une feuille en plastique intégrant alors des transistors organiques, d'autres composants organiques sont à l'étude avec toujours le même souci de réduction des coûts de fabrication : laser, cellules photovoltaïques, composants MEMS ou bio capteurs. Les matériaux organiques sont connus du public dans de nombreux domaines sous forme plastique comme matériaux structuraux pour l'emballage, le bâtiment, I'automobile ou l'électronique. L'extrême souplesse offerte par la chimie du carbone et le développement des techniques d'ingénierie moléculaire permettent de synthétiser des matériaux toujours plus optimisés pour les applications visées. Au-delà des caractéristiques mécaniques, les propriétés optiques (absorption, émission, indice de rétraction) ont pu être exploitées grâce aux progrès accomplis dans le contrôle des structures au niveau moléculaire. Les matériaux organiques se sont ainsi imposés dans le domaine des colorants ou des composants optiques passifs : verres correcteurs. miroirs allégés pour le spatial, revêtement en couches minces dans l'optique de précision, fibres optiques plastiques. Rapidement, suite à plusieurs avancées scientifiques et technologiques, ils ont rapidement trouvé des débouchés comme composants optoélectroniques actifs : lasers à colorants, afficheurs à cristaux liquides, composants optiques non linéaires, guides d'ondes intégrés. Progressivement, I'électronique organique dont les débouchés et les nombreuses perspectives d'applications pratiques laissent envisager une véritable révolution, est apparue comme un champ de recherche majeur associant chimistes et physiciens. Outre la fabrication d'écrans plats couleurs flexibles, beaucoup de composants sont à l'étude comme les lasers, les cellules photovoltaïques, les composants MEMS ou les bio capteurs. Les recherches sur ies matériaux organiques conducteurs sont par ailleurs étroitement liées à l'essor de l'électronique moléculaire. La production de transistors et d'autres composants électroniques constitués d'une unique molécule permettrait d'accroître la vitesse des systèmes tout en réduisant leur taille de façon significative. Deux groupes de composants cohabitent sous la dénomh1ation d'électroniques organiques, ceux à base de petites molécules et ceux à base de polymères. Ils sont identiques au niveau du fonctionnement physique mais diffèrent par les procédés de fabrication mis en oeuvre et par les caractéristiques obtenues. Les composants en petites molécules, fabriqués par évaporation sous vide, technique classique en microélectronique, sont à un stade commercial sous forme d'écrans OLEDs dont l'utilisation devrait se généraliser dans les téléphones portables et assistants personnels. Plusieurs améliorations techniques restent à apporter au niveau de l'efficacité, de la tension de fonctionnement et de la durée de vie pour que la technologie s'impose dans le domaine des écrans plats couleurs haute résolution et haute efficacité Le problème de réplication des pixel s sur de grandes surfaces donne lieu à de nombreuses recherches La technique d'évaporation sous vide utilisée pour la fabrication présente l'avantage de donner des films minces relativement ordonnés, ce qui permet de réaliser des transistors organiques OTFT (Organic Thin Film Transistor) fabriqués par IBM et Bell Labs. Ces composants sont envisagés pour plusieurs applications à faible coût, en particulier comme électronique de contrôle en face arrière des écrans OLED. Les polymères, molécules dont la structure se répète régulièrement en de longues chaînes constituées d'entités élémentaires (monomères), sont mis en oeuvre par des techniques très peu coûteuses, comme la sérigraphie. Bien que la structure des films moléculaires obtenue soit faiblement organisée ce qui affecte la mobilité, les composants polymères motivent un fort regain d'intérêt en raison de la simplicité des techniques de fabrication employées. Ce domaine de recherche s'est d'ailleurs vu récompenser cette année, par I'attribution du prix Nobel de chimie à Alan J Heeger (University of California Santa Barbara, Santa Barabara, CA), Alan G MacDiannid (Université de Pennsylvanie, Philadelphie, PA) et Hideki ShirakaNva (Université de Tsukuba, Japon) pour leur découverte révolutionnaire dans les années 70 qu'un plastique pouvait devenir conducteur s'il comportait alternativement des liaisons simples et doubles entre ses atomes de carbone et s'il était dopé par oxydation (suppression d'électrons) ou par réduction (ajout d'électrons) Les "trous" ou électrons supplémentaires peuvent alors se déplacer tout au long de la molécule qui devient ainsi conductrice d'électricité. De nombreuses avancées technologiques ont été enregistrées dans le domaine des composants polymères: fabrication d'écrans plats multicolores disponibles à la fin de l'année, réalisation de circuits intégrés flexibles contenant des centaines de transistors, fonctionnement d'un laser polymère pompé optiquement à très faible seuil et développement de diodes lasers polymères. Vigie : http://www.adit.fr/adit_edition/produits/vigie/br/v62/VOE_62_2.html
|
|
|
|
|
|
|
|
La transmission de puissance électrique se fait actuellement essentiellement par contacts ou par patins et pourrait bientôt être remplacée par l'IPT (Inductive Power Transfer): on peut dés à présent transmettre par induction des puissances de 160 KWa des fréquences comprises entre 15 et 20 kHz. Uwe Borman, responsable technique de la société Wampfler AG a Weil, espère pouvoir atteindre avant la fin de l'année les 240 kW. Ceci rend possible la fourniture électrique de petites grues de levage fonctionnant dans des environnements hostiles (poussières, explosifs, etc.). Ces grues seront très prochainement disponibles en série auprès d'un très grand fabriquant américain. Un avantage supplémentaire est la suppression de la vitesse limite de 240m/sec qu'imposent les dispositifs conventionnels a patins. Mais l'Inductive Power Transfert peut aussi être introduit dans les transports de personnes. Par exemple, les systèmes de rames sur monorail peuvent être alimentés de manière continue par induction. Les batteries des autobus électriques pourraient être rechargées a des arrêts de bus donnés, car il ne faut pas plus de 30 secondes pour emmagasiner l'énergie correspondant a une heure de fonctionnement. Un arrêt d'une minute suffirait pour allonger a trois heures cette capacité. La ville de Gènes (Italie) mettra des la fin de cette année un tel dispositif en circulation. Cette fonctionnalité sans câble trouve aussi des applications dans les transferts de puissance et de données pour des convoyeurs de transport autonomes dans l'industrie automobile, en particulier chez BMW et Audi. Mais aussi les sociétés de transport de petits colis, les installations de tri des entreprises de vente par correspondance ou encore les ascenseurs comme ceux de la tour de la foire de Hanovre pourraient être alimentes par IPT. A cote des recherches menées pour augmenter la puissance transférable, la société Wampfler AG recherche également de nouveaux débouchés pour l'IPT.Ainsi pourrait être abandonnés les câbles d'alimentation très gênants du petit outillage électrique sur les chaînes de montage. Les monteurs se tiendraient sur un "tapis énergétique" qui alimenterait directement tous leurs outils de travail. Selon la société Wampfler, il n'y aurait pas d'incidence sur la santé dans le domaine des 20 kHz. BE ALLEMAGNE : http://www.adit.fr
|
|
|
|
|
|
|
|
Agere la filiale “semiconducteurs” de Lucent Technologies, vient de produire les premiers fils supraconducteurs à partir de diborure de magnésium. Au même moment, d'autres équipes, des universités du Wisconsin et de Princeton, viennent de démontrer qu'ils pouvaient produire des couches minces de diborure dopées à l'oxygène pour en améliorer considérablement les propriétés. Les travaux ont tous fait l'objet de publication dans la revue scientifique Nature. Contrairement aux supraconducteurs conventionnels qui sont en développement lent depuis des dizaines d'années et aux supraconducteurs haute température qui ont fait irruption sur la scène en 1986, mais commencent seulement à trouver des applications concrètes, le diborure de magnésium semble promis à un succès rapide. Ce composé métallique, connu depuis longtemps, a révélé ses propriétés supraconductrices dans un laboratoire japonais en janvier dernier, et maintes équipes de par le monde ont déjà fait volte-face, suspendant leurs recherches en cours pour se pencher sur le berceau du produit miracle. Paradoxalement, le diborure de magnésium n'est même pas un supraconducteur haute température. Avec sa température de transition initiale de 39K, il est à peine plus “chaud” qu'un supraconducteur conventionnel à base de cuivre. Mais contrairement aux supraconducteurs les mieux connus, des matériaux assez exotiques et coûteux, MgB2 promet la supraconductivité pas cher... De plus, les nouveaux résultats de recherche montrent que le matériau peut désormais être utilisé pratiquement. D'un côté, Agere montre qu'il peut être “filé” de manière similaire à un supraconducteur “chaud”. De l'autre, les universitaires résolvent un problème-clé du MgB2, à savoir la baisse très rapide de la densité de courant supraconducteur en présence d'un champ magnétique. Les chercheurs ont en effet montré qu'en introduisant juste assez de “chaos” dans la structure du matériau, sous forme d'impuretés, ils rendaient le diborure capable de fonctionner dans un champ deux fois plus intense qu'avant. Usine Nouvelle : http://www.usinenouvelle.com/usn/site/pages/actualit/actua_j/general.cfm?breveId...
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le sélénium est un oligo-élément retrouvé dans la glutathion peroxydase, une enzyme qui participe à la lutte contre le stress oxydatif. Des travaux réalisés sur des souris indiquent qu'une déficience en cet oligo-élément faciliterait l'apparition de virus plus virulents chez les animaux infectés par le virus de la grippe. Les chercheurs à l'origine de cette découverte estiment qu'il pourrait en être de même chez l'homme et pourquoi pas pour d'autres oligo-éléments. Ce lien entre déficience en sélénium et virulence virale est rapporté par le Dr Melinda Beck de l'Université de Caroline du Nord dans l'édition du 8 juin du journal FASEB (Federation of American Societies for Experimental Biology). "Nous pensons que nos derniers résultats sont à la fois importants et potentiellement dérangeants parce qu'ils suggèrent que des déficiences nutritionnelles pourraient promouvoir des épidémies d'une manière jusqu'à présent insoupçonnées", a déclaré le Dr Beck, principal auteur de ce travail. Le Dr Beck et ses collaborateurs ont infecté par le virus de la grippe (souche Influenza A Bangkok) deux types de souris : le premier avait un régime alimentaire normal et le deuxième groupe présentait une déficience en sélénium. L'infection était plus sévère et plus longue chez les souris avec la carence en sélénium. "Il est connu depuis longtemps que si l'on est mal nourri, on est plus sensible aux infections, et de n'est pas donc pas surprenant que les souris soient plus malades lorsqu'elles présentent une déficience", commente Melinda Beck. Un résultat plus étonnant provient de l'analyse génétique des virus grippaux recueillis chez les deux types de souris après l'infection. Les chercheurs ont trouvé 29 mutations sur le gène de la protéine de matrice M1, une protéine virale jugée relativement stable. Ces mutations étaient plus fréquentes chez les souris avec une déficience en sélénium. "Ce travail, ajouté à nos travaux sur les coxsackie virus, montre que des déficiences nutritionnelles spécifiques ont un profond impact sur le génome des virus à ARN". Des carences nutritionnelles contribueraient alors à l'apparition de souches virales capables de propager l'épidémie. Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=2272 Université de Caroline du nord : http://www.unc.edu/news/newsserv/research/xiong060801.htm
|
|
|
|
|
|
|
|
De petites étoiles brillent dans ses yeux lorsqu'il raconte son premier essai de STI571, nom de code du Glivec, chez une malade atteinte d'un cancer de l'estomac très particulier appelé GIST (pour gastro-intestinal stromal tumor). "Elle était au bout du rouleau, le foie plein de métastases,raconte le professeur Jean-Yves Blay, de l'hôpital Edouard-Herriot et du Centre anticancéreux Léon-Bérard à Lyon. Elle a pris quatre comprimés par jour et elle a ressuscité ! En quelques jours, tout avait disparu. C'est le rêve de tout cancérologue : donner une pilule qui fait fondre les tumeurs et rend le malade à la vie." Cette belle histoire ne doit pas laisser croire que l'on a vaincu le cancer. Elle annonce cependant une véritable révolution avec la mise au point de médicaments très spécifiques et peu toxiques, nés grâce à la décortication du mécanisme moléculaire conduisant à la cancérisation. Le Glivec a été mis au point pour inhiber des enzymes dont la fonction est de transférer des radicaux phosphate sur des sites particuliers des protéines entourant une tyrosine. Ces enzymes sont des tyrosine-kinases. Elles jouent un rôle de premier plan dans la transmission intracellulaire des signaux de croissance intimant à la cellule l'ordre de se reproduire, mais sont aussi souvent impliquées dans les processus de cancérisation. La grande nouveauté de l'effet du STI571 est qu'il est durable. Les malades répondeurs ne voient plus leurs tumeurs progresser tant qu'ils sont traités. Mais il est difficile d'envisager d'arrêter le traitement ; la maladie devient chronique, tout arrêt thérapeutique voit la résurgence des tumeurs. La même démarche est appliquée pour les tumeurs dépendantes des récepteurs des facteurs de croissance épidermique, EGF-R. Ce sont aussi des protéines à activité tyrosine-kinase. L'EGF-R est surexprimé dans de très nombreux cancers attaquant les épithéliums, notamment ceux touchant la tête et le cou, les reins, les poumons, le côlon et le tissu cérébral. Un inhibiteur direct de son activité tyrosine-kinase, l'Iressa, est en cours de test. Par ailleurs, des anticorps spécifiquement dirigés contre la partie extracellulaire de ces récepteurs sont aussi en cours de tests. Ce ne sont là que quelques exemples parmi les plus significatifs des progrès thérapeutiques en cancérologie. L'avenir est à des produits parfaitement ciblés et adaptés, en outre, à chacun des malades. Il est vraisemblable aussi que les traitements comprendront une combinaison de molécules ne laissant pas la place à l'échappement thérapeutique. L'efficacité devient alors absolument remarquable. Mais, pour y parvenir, il faut encore beaucoup de recherche. "On ne peut plus concevoir un grand service de cancérologie sans son laboratoire de recherche incorporé. L'anatomie pathologique et la génétique sont au coeur de la nouvelle oncologie", constate Jean-Yves Pierga, praticien hospitalier-chercheur à l'Institut Curie. Le Monde : http://www.lemonde.fr/article/0,5987,3244--194465-,00.html
|
|
|
|
|
|
|
|
L'étude publiée à ce sujet dans le "Lancet" s'est déroulée en Suède et s'est étendue sur trente ans : elle a permis de constater que la consommation de poisson gras s'accompagnait d'une réduction du risque de survenue d'un cancer de la prostate. Les acides gras essentiels contenus dans les poissons gras ont des vertus déjà connues : ainsi, ils inhibent la croissance des cellules cancéreuses prostatiques, tant in vitro qu'in vivo. Deux études avaient déjà montré qu'un taux d'acides gras sérique élevé s'accompagnait d'une diminution du nombre de cancers prostatiques. L'étude suédoise a débuté en 1961 : tous les jumeaux suédois nés entre 1886 et 1925 ont été contactés et invités à répondre à un questionnaire portant non seulement sur leur alimentation et leur consommation de poisson gras, mais aussi sur leur mode de vie, leur tabagisme ou encore la pratique d'activités sportives ou la consommation d'alcool. Les auteurs ont obtenu plus de 6 200 réponses, l'âge moyen des hommes étant de 55,6 ans. Le suivi de ces sujets a duré trente ans. Pendant cette période, 466 cancers de la prostate ont été diagnostiqués, entraînant le décès dans 340 cas, en moyenne à un peu plus de 76 ans. L'analyse des données recueillies par les chercheurs a permis d'établir une relation préventive de la consommation de poisson gras dans le risque de survenue de cancer de la prostate : ainsi, comparés à des consommateurs importants de poissons gras, ceux qui en consomment peu ont 1,2 fois plus de risque de présenter un cancer de la prostate ; ce risque est multiplié par 2,3 chez ceux qui ne mangent jamais ou rarement de poisson gras. L'étude qui paraît dans le "Lancet" n'est pas une étude de trop : les données épidémiologiques disponibles jusqu'à présent n'étaient pas suffisantes. De plus, la durée du travail et son caractère prospectif est intéressant : ainsi, les auteurs soulignent que les renseignements obtenus sur l'alimentation des patients précèdent l'apparition de la tumeur, ce qui permet de ne pas "fausser" les résultats. Csanté : http://www.csante.com/ Lancet : http://www.thelancet.com/journal
|
|
|
|
|
Abbott Laboratories de North Chicago a obtenu des résultats tres positifs au cours d'essais menés sur son medicament ABT-627, ou antrasentan, destiné a lutter contre le cancer de la prostate en phase avancée. Aux Etats-Unis, ce cancer repréesente la deuxieme cause de mortalite chez les hommes. Au contraire de produits comme le Lupron, administre sous forme d'injection mensuelle, l'ABT-627 est pris sous forme de cachet quotidien. Les résultats révélées lors de la réunion de l'American Urological Association qui se tient actuellement a Anaheim (Californie) indiquent que la moitié des patients prenant une dose de 10 mg par jour ne montrait aucun signe de progression de la maladie au bout de six mois. Les essais cliniques de l'ABT-627 sont actuellement quasiment terminés mais son autorisation ne sera decidée par la Food and Drug Administration (FDA) que fin 2003. ST Presse : http://www.france-science.org
|
|
|
|
|
|
|
|
Il est généralement admis que les myocytes ne se répliquent pas chez l'adulte. L'examen du coeur de plusieurs patients décédés après un infarctus du myocarde montrent une activité mitotique en bordure de la zone d'infarcissement mais également sur des zones distantes. Les chercheurs à l'origine de cette observation estiment donc que le coeur pourrait être capable de se régénérer dans certaines conditions. Ce résultat est publié par Beltrami et al dans le New England Journal of Medicine. Ces auteurs rappellent que des données récentes laissaient suggérer que le myocarde disposait de telles facultés. Ces travaux semblent en apporter une preuve très claire.Des zones du myocarde de 13 patients décédés dans les 4 à 12 jours après un infarctus ont été examinés et comparés à 10 coeurs témoins. Les mitoses étaient étudiées sur des zones proches ou éloignées de la zone lésée. Les divisions cellulaires étaient détectées par le marquage d'un marqueur nucléaire spécifique. Les chercheurs ont pu montrer l'existence d'une activité mitotique dans ces zones : 4 % des noyaux de myocytes étaient en mitose dans la zone de l'infarcissement contre 1 % dans la zone distante. Comparé aux coeurs contrôles, ces chiffres sont respectivement 70 et 24 fois plus élevés, ajoute un communiqué des NIH. D'après le Dr Anversa qui a participé à ces travaux, la prochaine étape est l'identification de la source de ces mitoses : "Est-ce que ces cellules sont une sous-population de cellules connues qui conservent leur faculté à se diviser ou est-ce que ces cellules proviennent de cellules souches présentes dans le coeur ?". Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=2267 NEJM : http://content.nejm.org/cgi/content/abstract/344/23/1750?
|
|
|
|
|
|
|
|
Le principe de la brachythérapie endovasculaire consiste à introduire dans l'artère, à l'aide d'un cathéter, des « sources » émettant des radiations ionisantes limitées à la paroi du vaisseau. « La réalisation de l'intervention, d'une durée de quelques minutes, est simple et dénuée de danger », selon le directeur de l'unité de cardiologie interventionnelle de la clinique Pasteur de Toulouse (sud-ouest), le Pr Jean Marco, qui a été un des premiers à la tester. La brachythérapie est particulièrement efficace pour lutter contre la réapparition d'un rétrécissement de l'artère dû à la formation d'une épaisse cicatrice à l'endroit où elle a été dilatée lors de la pose d'un « stent », sorte de ressort métallique destiné à maintenir l'artère ouverte et lui évitant de se contracter. Appelée « resténose intrastent », cette cicatrisation rétrécissante intervient dans un délai de quelques semaines à six mois après l'intervention. La resténose est un problème sérieux affectant plus de 15 000 personnes par an en France, soit environ 20 % des 80 000 patients bénéficiant d'une angioplastie avec pose d'un « stent ». La brachythérapie endovasculaire est déjà pratiquée aux États-Unis et en Europe (Allemagne, Belgique, Italie et Pays-Bas). Cyberpresse : http://www.cyberpresse.ca/groups/public/documents/convertis/sci_p1061170.hcsp
|
|
|
|
|
|
|
|
Le Centre national d'études spatiales (Cnes) va déployer pour la première fois un système pilote de télémédecine par satellite en Guyane française, permettant aux populations des régions très enclavées de consulter des médecins à distance. Le directeur général du Cnes, Gérard Brachet, et le directeur du Centre hospitalier de Cayenne, Robert Gutermann, signent ce vendredi une convention par laquelle ils s'engagent pendant une première période de six mois dans ce projet d'implantation d'un réseau de téléconsultations médicales par satellite sur sites isolés. Les patients des bourgs et des communes situés au coeur de la forêt amazonienne de Guyane et le long des fleuves Maroni et Oyapock, aux frontières avec le Surinam et le Brésil, pourront ainsi dialoguer et échanger des informations avec les professionnels de santé de l'hôpital de Cayenne. Les quatre sites pilotes (Saint-Georges, Maripasoula, Trois Saut et Antecum Pata) seront équipés d'une station portable de télémédecine. Il s'agit d'une valise de sept kilos, composée notamment d'un enregistreur numérique, un appareil photo numérique, un brassard de tension automatique et divers appareils médicaux, reliés à un PC portable. Les images et les données fournies sont envoyées sur les écrans des médecins du Centre hospitalier via le satellite. Par le même biais, les professionnels de santé transmettront leur diagnostic. "Cette campagne de validation de longue durée est une première sur le plan national et sur le continent américain", a expliqué à Reuters Gérard Brachet. "Nous avons déjà fait des tests mais de très courte durée, notamment dans des camps de réfugiés au Cambodge", a-t-il ajouté. Le réseau testé en Guyane a une portée de plusieurs milliers de kilomètres. Le montant total de l'opération s'élève à 1,6 million de francs. Si les résultats sont probants, d'autres sites isolés pourraient être équipés. Reuters : http://fr.news.yahoo.com/010608/85/1cc7r.html
|
|
|
|
|
|
|
|
Dans un futur proche, vous n'aurez plus à aller chez le médecin. Une micropuce à ADN, ou biopuce, diagnostiquera à partir d'un échantillon de liquide corporel le mal qui vous frappe, et votre médecin recevra par courrier électronique, via un ordinateur de poche, le traitement le plus adapté à ce type de maladie en fonction de vos antécédents. La biopuce à ADN permet d'analyser très rapidement une grande quantité d'information génétique. Actuellement, les scientifiques n'identifient grâce à la biopuce que quelques agents pathogènes et ils n'arrivent à prévoir que certains effets secondaires. Cependant, cette technologie a déjà permis aux chercheurs d'élargir les connaissances dans le domaine de la génétique. La société Affymetrix a ouvert la voie à cette nouvelle technologie qui permet la symbiose entre la biologie du vivant et l'informatique. D'après Jodi Flax, manager des nouvelles stratégies pour le groupe Motorola, ce système de puce à ADN pourrait être utilisé d'ici cinq ans par les médecins et la population pourrait en être équipé à domicile d'ici dix ans. Ce pendant, Vivian Weinblatt, présidente de la société nationale américaine des conseillers en génétique, se demande si le public sera aussi enthousiaste que les scientifiques devant cette technologie qui permettra d'avoir sur CD ou sur ordinateur de poche toutes les informations concernant son propre ADN. Sciences&Avenir : http://quotidien.sciencesetavenir.com/sci_20010611.OBS5214.html
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut de Recherche Pharmaceutique Serono à Genève ont mis au point une technique d'amplification de la protéine prion anormale. Cette technique novatrice permet de détecter des concentrations extrêmement faibles de prion anormal. Nommée PMCA pour "Protein Misfolding Cyclic Amplification", cette approche est décrite dans l'édition du 14 juin de la revue Nature. Comment détecter de très faibles quantités de protéines prions anormales (PrP Sc) ? La réponse de Gabriela Saborio et des ses collaborateurs est claire : en augmentant le nombre initial de PrP Sc dans l'échantillon. On s'accorde aujourd'hui sur le fait que ces protéines prions anormales PrP Sc jouent un rôle essentiel dans les encéphalopathies spongiformes transmissibles comme l'encéphalopathiespongiformebovine (ESB) ou le nouveau variant de la maladie de Creutzfeldt-Jakob (nvMCJ). Dans son rôle d'agent infectieux, PrP Sc convertirait les protéines prions normales (PrP C) en PrP Sc, générant ainsi de grandes quantités de PrP Sc sous forme d'agrégats dans le cerveau des personnes touchées. Les tests diagnostiques actuels sont basés sur la recherche de PrP Sc dans le cerveau des patients ou animaux décédés. Toutefois, la détection de PrP Sc dès les premiers stades de la maladie est rendue impossible du fait d'un nombre trop faible de PrP Sc pour les tests actuels. Dans leur publication, Saborio et al décrivent comment ils ont amplifié in vitro la protéine prion anormale PrP Sc. Leur technique s'apparente au principe à PCR, avec une succession de phases d'amplification. Ces amplifications sont le résultat de la conversion de protéines prion normales PrP C en protéines prions anormales PrP Sc. Pour cela, les chercheurs ont incubé des PrP Sc en présence de PrP C. D'après les chercheurs, 97 % des PrP Sc retrouvées après cette amplification seraient le résultat de protéines nouvellement converties. Cette technique permet donc d'augmenter la quantité de PrP Sc dans un prélèvement et ainsi diminuer indirectement le seuil de détection des tests actuels. Selon Saborio et al, la PMCA (Protein Misfolding Cyclic Amplification) pourrait être utilisée pour la détection des protéines prions anormales dans les tissus ou liquides biologiques. Bien entendue, la PMCA serait couplée aux méthodes d'immunodétection actuelle. Outre cet aspect diagnostique évident, ce travail revêt une importance particulière pour la recherche puisqu'il permet pour la première fois la culture des protéines prions anormales in vitro, avec une efficacité supérieure à celle observée in vivo. Caducée : http://www.caducee.net/ Nature : http://www.nature.com/nlink/v411/n6839/abs/411810a0_fs.html
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Les voitures hybrides fonctionnant à l'essence et à l'électricité percent sur le marché américain où les constructeurs se livrent à une véritable course pour être le premier à présenter un véhicule entièrement "propre". Dans le cadre de sa politique de l'énergie présentée il y a un mois, l'administration présidentielle américaine a prévu des crédits d'impôts pour l'achat de véhicules hybrides utilisant un moteur à explosion mais aussi des batteries pour augmenter leur autonomie et réduire leurs émissions polluantes. Pour l'instant, les seuls constructeurs susceptibles de bénéficier de cette mesure sont... les japonais Toyota et Honda. Toyota a lancé en juillet 2000 aux Etats-Unis la "Prius" qui s'est vendue depuis à 11.500 exemplaires, dont 1.126 en mai. Honda, de son côté, offre depuis décembre 1999 le modèle "Insight" dont 903 exemplaires ont été vendus aux Etats-Unis pour le seul mois de mai, soit près de 140% de plus que sur le même mois l'année précédente. Ces voitures ne sont pas entièrement "propres" car elles sont encore propulsées par un moteur à combustion classique au-dessus d'une certaine vitesse, utilisant un moteur électrique d'appoint, rechargé par l'énergie dégagée par le freinage, au démarrage et à basse vitesse. Les grands constructeurs américains comme General Motors (GM), Ford et Chrysler, qui appartient au groupe allemand DaimlerChrysler, sont pour le moment absents de ce segment. GM a été notamment échaudé par l'échec de ses modèles tout électrique EV1 et EV2 commercialisés en Californie, l'Etat aux Etats-Unis avec les normes les plus strictes en matière d'émissions polluantes automobiles. Ils parient sur la pile à combustible, un système tout à fait différent qui produit de l'électricité grâce à une réaction d'électrolyse entre de l'hydrogène et de l'oxygène. Des prototypes roulants ont déjà été présentés par DaimlerChrysler et Ford ces deux dernières années et des autobus fonctionnent avec ce procédé à Chicago (Illinois). GM pour sa part vient coup sur coup d'annoncer des prises de participation dans des sociétés pionnières du secteur. Ford et DaimlerChrysler sont déjà partenaires de l'entreprise canadienne Ballard Power Systems qui fabrique des piles à combustible PEM (Proton Exchange Membrane) utilisant du méthanol dont l'hydrogène est extraite par l'intermédiaire d'un catalysateur (ou processeur). L'inconvénient est qu'il reste des émissions polluantes bien que deux fois inférieures à celles d'un moteur à explosion. GM fait le pari à long terme de la pile à hydrogène pur à émission zéro, tout en travaillant à moyen terme avec le groupe pétrolier ExxonMobil sur un modèle utilisant de l'essence au lieu du méthanol. Un véhicule prototype utilisant ce système doit être présenté au début 2002. "Nous ne pensons pas que la création d'une infrastructure de distribution de méthanol soit la voie à suivre aux Etats-Unis, principalement en raison du fait que le méthanol absorbe l'eau et que vous ne pouvez de ce fait utiliser le réseau existant d'oléoducs pour le transporter", affirme Larry Burns, vice-président de GM chargé de la recherche et du développement. Pour les modèles à hydrogène pur, GM vient de prendre des participations dans les sociétés américaines Quantum Technologies et General Hydrogen. La première est spécialisée dans la compression de l'hydrogène et ses recherches devraient permettre aux véhicules à pile à combustible d'avoir une autonomie identique voire supérieure à celle des voitures à essence d'aujourd'hui. AFP : http://fr.news.yahoo.com/010614/1/1czf8.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|