|
|
|
|
|
NUMERO 76 |
|
|
|
|
|
|
|
Edition du 17 Décembre 1999
|
|
|
|
|
Edito
la puissance se déconnecte du nombre
Depuis l'origine de l'humanité, la puissance a constamment été liée au nombre. A l'époque où tout pouvoir s'appuyait sur la violence, selon la définition d'Alvin Toffler, c'était le nombre de ses soldats (Staline aurait dit le nombre de ses divisions) qui permettait de définir le rang d'une nation dans sa sphère d'influence. Bien que le pouvoir par la violence soit encore bien loin, malheureusement, d'avoir disparu de notre Planète en cette fin de second millénaire, le pouvoir par l'argent s'est peu à peu imposé pour aider à définir ce qu'est un pays " civilisé ". Ce type de pouvoir est beaucoup plus subtil puisqu'il permet de récompenser tout en gardant le droit de punir et il n'a plus comme finalité unique de détruire comme le fait la violence. Cette destruction inexorable de celui qu'on veut dominer fait du pouvoir primaire qu'est la violence un état qui, heureusement, régresse partout où l'information et le savoir progressent. Mais ne nous leurrons pas, comme pour la violence, les limites du pouvoir par l'argent, c'est le nombre. Par définition, l'argent est un produit fini. Il ne peut pas être multiplié à l'infini : il perdrait alors toute puissance. Le marché, qui a été si brillamment théorisé en 1776 par Adam Smith, (1723-1790) et qui est l'outil fondamental du pouvoir par l'argent repose sur le nombre de producteurs et de consommateurs et sur l'importance des capitaux mis en jeu. Nous entrons dans une ère où le savoir devrait l'emporter assez rapidement, il faut l'espérer, sur la violence et même faire reculer à terme le pouvoir par l'argent, surtout là où il est injustement détenu et opprime. Or, ce qui est intellectuellement décapant avec le pouvoir par le savoir, c'est qu'il n'est plus lié au nombre : par définition, il n'a pas de limite. Un savant qui, hier, transmettait son savoir à quelques dizaines d'élèves dans un amphi va pouvoir, de façon instantanée, dans quelques courtes années, grâce aux nouvelles technologies, multiplier par mille, ou même par un million si cela était utile, sa puissance de transmission du savoir sans que lui-même en soit appauvri. Les entreprises du futur sur lesquelles semble s'appuyer (mais n'est-ce pas un leurre ?) la " nouvelle économie " sont-elles aussi en train de se déconnecter du nombre. Elles n'ont plus besoin d'agents de production, ni même de matière pour réaliser leur chiffre d'affaires. Vous pourriez me rétorquer que les sociétés de services que nous connaissons depuis longtemps répondent déjà à cette définition des entreprises du futur. Il n'en est rien car elles aussi sont toujours liées au nombre. Ainsi, quand une société de services informatiques reçoit la commande d'un intranet à réaliser pour l'un de ses clients, par exemple, elle doit mobiliser, pour répondre à ce marché, des concepteurs, des ingénieurs de développement, des designers, etc : certes, ce ne sont plus des bras ou de la matière qui sont mobilisés mais c'est de l'intelligence spécifique qui est mise en oeuvre. Par contre, quand la société Microsoft (qui est en cette fin de siècle la société phare de ces sociétés du futur) reçoit de la société Dell (par exemple) la commande d'un million d'exemplaires de son O.S. vedette : Windows 98, elle n'aura pas une once de main-d'oeuvre ou de matière à mobiliser pour livrer cette commande. Des robots enregistrent automatiquement cette commande, incrémentent les numéros d'authentification des produits livrés, établissent la facture et envoient sur les réseaux les logiciels, sans qu'il y ait eu (théoriquement) la moindre mobilisation humaine. Cette déconnexion totale de la puissance et du nombre dans cette " nouvelle économie " déforme actuellement notre vision du futur car elle nous fait perdre tous les repères que nous avions acquis depuis des millénaires. Il n'est pas choquant que les entreprises qui s'appuient sur cette " nouvelle économie " gagnent beaucoup d'argent puisque la règle qu'il leur faut appliquer est de ne faire payer à leur client que des coûts marginaux par rapport au prix qu'il aurait dû payer s'il avait voulu seul s'approprier ce produit. Ce qui est plus choquant et qui pourrait même devenir dangereux pour le maintien du lien social, c'est que ce soit encore les lois du marché, qui ont été définies pour des sociétés dont la puissance s'établit sur le nombre, qui continuent à régir la répartition des richesses produites par ces sociétés du futur. René TREGOUET Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Perdu dans le cyberespace? Il est temps d'aller faire un tour dans un monde virtuel... Ni signalisation ni marquage au sol sur les réseaux, mais des flux d'informations qui déconcertent l'individu habitué à se situer par rapport à l'espace qui l'entoure. Or, sur l'Internet, le corps est absent et l'espace lui-même est une notion fluctuante : je peux me sentir très proche de personnes très éloignées physiquement, passer de la contemplation d'un fjord en Norvège à l'intrusion dans un appartement new-yorkais d'un clic, sans le moindre déplacement physique. Le rapport à l'espace s'en trouve de fait modifié, alors que le vocabulaire employé reste désespérément banal: on cause dans les "salons" de conversation en direct, on se balade dans des "mondes" virtuels, on "surfe" de page en page... Paul Virilio a, dès 1996, illustré la réticence française à investir ces territoires, en stigmatisant le risque de l'accélération de la vitesse virtuelle. En France, le milieu de l'architecture boudait les réseaux. Les temps changent et les mondes virtuels débrident les imaginations. Ce soir sur le Net et au Purple Institute, "e-spaces" devrait apporter du grain à moudre à la réflexion sur l'architecture de l'information. Pendant deux heures, dans un monde virtuel créé de façon ad hoc, huit équipes d'architectes américains, grecs, français ou anglais échangeront leurs idées pour tenter une "genèse dans cette soupe originelle", selon François Roche, l'un des intervenants. Histoire de réfléchir aux déplacements aléatoires, aux incertitudes des itinéraires ou de l'accès à l'information. Et de renouveler l'esthétique besogneuse de ces mondes virtuels, où chacun choisit sa représentation sous forme d'avatar, pour ensuite déambuler dans des reproductions du monde réel souvent beaucoup plus tristes Les logiciels en ligne se sont multipliés qui permettent à chacun de créer son monde et de s'y immerger. Et les scientifiques en analysent les potentialités. La semaine dernière à Paris se tenait la deuxième édition d'Avatars, une conférence internationale sur les mondes virtuels réunissant des chercheurs en intelligence artificielle, pour rendre compte des pistes pour une vie artificielle en réseau. Un mirage? Pas si sûr...
|
|
|
|
|
|
|
|
Gagnant un secteur après l'autre, Internet est tout simplement en passe de devenir le premier format médiatique, loin devant la TV, la radio, la presse... puisqu'il les aura tous récupérés ! La compagnie Scientific-Atlanta annonce, par exemple, que ses nouveaux téléviseurs Explore seront reliés au Web. La société travaille en collaboration avec MoreCom, un fournisseur de services combinant des contenus vidéo et Internet. Ainsi l'heureux possesseur d'un téléviseur Explore aura l'e-mail cathodique, la vidéo à la carte, ainsi qu'une bonne rasade de e-commerce... La compagnie ajoute que ses utilisateurs pourront regarder un programme de télévision et accéder, dans le même temps, aux contenus Internet qui éventuellement s'y rapporteront. Parallèlement, Microsoft s'associe avec le constructeur de téléviseurs General Instrument (GI) pour le développement de téléviseurs multimédias. GI embarquera la technologie Microsoft Windows Media, en particulier dans ses modèles DCT 5000+. Le téléviseur DCT-5000+ offrira un accès Internet à haut débit, et tout le contenu que cela implique, via un simple modem. Une démarche inverse voit également le jour depuis peu, à savoir celle de services Internet fournissant des contenus qu'on pensait jusqu'alors étrangers au monde du Web. ClicVision, un tout nouveau service Web multimédia français (en rodage jusqu'au 1er janvier 2000), offrira par exemple un large éventail de contenus dans des formats habituellement réservés à d'autres médias qu'Internet. L'ambition de tels services est d'arriver au multimédia absolu... Vaste entreprise, dont à priori seul Internet peut s'acquitter. Lettre de l'internet : http://www.lalettre.com/todaynews.cfm?id=110&actions=view
|
|
|
|
|
|
|
|
Les hébergeurs sont en état d'alerte depuis le 8 décembre : trois d'entre eux, dont Multimania, viennent d'être condamnés pour atteinte au droit à l'image. Cette décision - qui fait écho à l'affaire Altern mais contredit deux autres jurisprudences -, revient à imposer aux hébergeurs une véritable obligation de surveillance et de censure préventive des pages qu'ils hébergent. L'affaire traitée par le tribunal de grande instance de Nanterre part d'une plainte de l'ex-mannequin, Lynda Lacoste, dont les photos ont été diffusées sur des sites aux noms évocateurs : Goutemoi et autres Parisvoyeur. Réalisés pour une publication dans la presse traditionnelle, les clichés litigieux représentaient la jeune femme dans le plus simple appareil. Or, a aucun moment la plaignante n'en avait autorisé la publication électronique. C'est pourquoi elle assigne en réparation de son préjudice la société SPPI, un éditeur de sites à caractère érotique, ainsi que les sociétés Multimania, Esterel et Cybermédia. Le TGI a condamné les hébergeurs à payer au mannequin environ 220 000 F de dommages et intérêts (10 000 F par photo litigieuse hébergée). Le tribunal rappelle tout d'abord (lire le document) que les hébergeurs doivent respecter " une obligation générale de prudence et de diligence ", et qu'ils doivent veiller au respect du droit des tiers en mettant en oeuvre " des moyens raisonnables d'information, de vigilance et d'action ". Les juges remarquent cependant que la société Multimania s'était bien acquittée de son obligation d'information pour avoir incité ses membres, suite à l'affaire Altern, à respecter le droit à l'image des mannequins. Tout allait bien jusque là. Mais le tribunal reproche ensuite aux prestataires de n'avoir pas su prendre de mesures raisonnables pour détecter les contenus illicites et les supprimer de leurs serveurs. La décision du 8 décembre va donc très loin puisqu'elle impose aux hébergeurs une véritable obligation de surveillance et de censure préventive sur le seul fondement des articles 1382 et 1383 du Code civil. Selon l'un des avocats des sociétés condamnées, cette décision " est en totale contradiction " avec l'article 15 de la directive sur le commerce électronique (en cours de validation au sein de l'Union Européenne). Selon cet article les prestataires ne peuvent se voir imposer aucune " obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou circonstances indiquant des activités illicites. " ZDNEt : http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=11976 Affaire Lacoste : http://www.juriscom.net/jurisfr/lacoste.htm
|
|
|
|
|
|
|
|
La Société des Auteurs, Compositeurs et Editeurs de Musique et la SESAM, qui fédère les sociétés de droits d'auteurs pour les exploitations multimédia, ont conclu un accord avec FranceMP3, l'un des plus importants sites francophones de téléchargement de musique sur Internet en format MP3. Selon les termes de cet accord, d'une durée de six mois, FranceMP3 s'engage à "ne distribuer que des fichiers porteurs d'enregistrements, dont l'ensemble des autorisations ont été obtenues". En outre, un taux de 12% du prix hors taxe sera acquitté par l'utilisateur téléchargeant un fichier dont l'auteur est membre de la SACEM. Un minimum de 1,31 franc ou 0,2 euro a été fixé. Enfin, l'accord est limité géographiquement aux "territoires de compétence" de la SACEM, à savoir la France, la Principauté de Monaco et le Luxembourg. Environ 400 artistes et 1.700 titres devraient être disponibles fin décembre sur le site qui permet d'écouter intégralement des morceaux et de télécharger des titres. Les Echos : http://www.lesechos.fr/hightech/index.html
|
|
|
|
|
|
|
|
Le m-commerce, soit l'e-commerce sur Internet à partir de dispositifs mobiles, devrait connaître une croissance exponentielle en Europe dans les années à venir, selon la banque d'investissements britannique Durlacher. Ce marché pourrait s'élever à 23.000 millions d'euros en 2003. La banque précise qu'une telle prévision est basée sur le fait que les mobiles Internet supplanteraient rapidement le marché des lignes fixes Internet. Il y aurait actuellement, de par le monde, environ 160 millions de connexions Internet fixes. Cette donnée doit se comparer aux 375 millions d'utilisateurs de téléphones mobiles. La plupart, d'entre eux, seraient européens. En 2003, ils seraient 535 millions, créant une base potentielle énorme pour le m-commerce. D'une manière générale, les analystes industriels estiment que plus de 10% du e-commerce seront réalisés via des produits mobiles dans les trois années à venir. Entre 2002 et 2005, ces mêmes observateurs considèrent qu'il se vendra plus de 600 millions de téléphones mobiles ayant la possibilité de se connecter à Internet. Click here for Picture Réseaux&Telecoms : http://www.reseaux-telecoms.net/qrt.htm
|
|
|
|
|
|
|
|
Le cabinet IDC vient de rendre public une étude menée pour le compte du CIGREF (organisme regroupant les 100 plus grandes entreprises françaises) sur l'état d'avancement des projets de commerce électronique chez ses adhérents. Le constat qui en ressort est sans appel : 60% de ces entreprises ont consacré un budget inférieur à 5 M.F. à Internet, et si tout de même 40%, ont débloqué des sommes supérieures à 5 M.F., seules 6% ont investi plus de 50 M.F. Plus inquiétant encore, 60% de ces entreprises n'ont pas fait progresser cette année leurs dépenses Internet de plus de 10%. Pour ces dernières, outre une absence évidente de stratégie (visiblement, elles se demandent encore ce qu'Internet pourrait bien leur apporter ... si ce n'est des ennuis avec leur réseau de distribution !), cette faiblesse dans les investissements Internet met en évidence une certaine incompréhension des enjeux de la Net-économie par les dirigeants de ces compagnies. Privilégiant encore des canaux plus traditionnels (Minitel - encore 70% d'utilisation aujourd'hui -, téléphone, EDI, ...), elles estiment que leur "force de frappe" (budget, image de marque) leur permettra de se mettre à niveau lorsque le nombre d'internautes atteindra un seuil critique. Or cette analyse risque de s'avérer bien périlleuse, car Internet introduit un nouveau timing dans la courbe de développement des services, le fameux "Web Time", qui impose aux organisations de suivre au plus près la courbe d'apprentissage du Web, sous peine de ne plus pouvoir la rattraper. Et ce n'est pas en rachetant en catastrophe des start-ups Internet au dernier moment pour constituer des équipes Internet que la culture du Net pourra imprégner l'ensemble du personnel de l'entreprise. Or les projets Web intéressent désormais l'ensemble des fonctions de l'entreprise (marketing, commercial, voire opérationnel pour les achats en ligne ou le support, etc...). Preuve que l'ampleur de cette révolution n'est pas encore complètement perçue par les grandes entreprises, seulement 19% d'entre elles envisagent de développer leur activité Web via une filiale spécialisée. E-Market : http://www.emarketnewsletter.com/echiffres.htm#cigref
|
|
|
|
|
|
|
|
Dans la course à l'automobile connectée, le français Citroën devrait griller l'américain General Motors sur la ligne de départ. Si le constructeur d'outre-Atlantique espère sortir en série un modèle permettant la consultation d'Internet depuis son volant d'ici 18 mois, la firme aux deux chevrons devrait se lancer sur le marché dès janvier 2000. 250 exemplaires de la Xsara Windows CE devraient en effet être alors disponibles, à un prix de vente qui devrait osciller autour de 146 000 francs. Tout comme le modèle développé par General Motors (reposant sur la technologie Onstar), la Xsara Windows CE utilisera un module de reconnaissance vocale, qui permettra aux utilisateurs de manipuler le système sans avoir à baisser les yeux sur sa plate-forme de navigation, localisée à la place de l'autoradio. Les conducteurs pourront donc consulter de nombreuses fonctionnalités (informations, Bourse, SAV, repérage GPS, état du trafic, etc.), dans des conditions de sécurité optimales. Avec la Xsara Windows CE, Citroën fait donc une entrée résolue sur le marché de l'informatique embarquée, et devrait s'appuyer sur cette expérience pour étayer des projets à venir. Le constructeur français espère en effet maintenir une relation privilégiée avec les 250 premiers utilisateurs de la Xsara Windows CE afin d'en améliorer les fonctionnalités. Les utilisateurs recevront d'ailleurs régulièrement des disquettes permettant l'upgrade du système. Si Citroën prend ainsi une longueur d'avance sur General Motors, il n'en reste pas moins que l'américain semble être bien parti pour s'imposer au niveau quantitatif : il espère en effet construire 1 million de véhicules équipés de la technologie Onstar.
|
|
|
|
|
|
|
|
Plusieurs opérateurs de télévisions spécialement conçues pour être diffusées sur l'internet ont décidé de se fédérer au niveau européen, "pour promouvoir et faciliter les échanges en matière de contenus et de savoir faire", a-t-on appris jeudi auprès de CanalWeb, opérateur français de télévision. Aux cotés de CanalWeb, dirigé par Jacques Rosselin, fondateur de "Courrier International", ce consortium européen rassemble "Kamera interactive", une société suédoise qui fournit des contenus télé pour internet, "MenAwork", jeune société belge qui propose des programmes aux fournisseurs d'accès et "Nomad Online Agents", entreprise suisse qui diffuse des concerts sur le réseau. Même si les chaînes thématiques qui fleurissent sur le web ont encore une audience très confidentielle, les partenaires font valoir qu'aux Etats-Unis, "le chiffre d'affaires lié à la diffusion de contenu audio et vidéo sur Internet était en 1998 de 327 millions d'USD". En 2003, ce marché devrait peser 2,6 milliards d'USD. Jusqu'ici le webcasting (par référence à broadcast), c'est à dire la diffusion de radios et télévisions sur l'internet était freiné par la technologie et la lenteur du réseau. L'internaute devait ainsi visionner des vidéos de piètre qualité et aux images saccadées. La radio et la télévision sur le Net étant très gourmands en bande passante, les quatre fondateurs misent désormais sur "la multiplication des réseaux à haut débit et l'arrivée de nouvelles normes en matière de diffusion de programme vidéo sur les téléphones mobiles". Les membres du consortium, qui sera officiellement lancé au Milia 2000 à Cannes en février, ont ouvert un site commun Yahoo : http://fr.news.yahoo.com/991216/32/7plr.html New European Content Union : http://www.europeanstreaming.com/
|
|
|
|
|
|
|
|
Akamai Technologies et Network Appliances hébergent le forum ICAP, point de départ d'une initiative destinée à favoriser l'adoption du protocole ICAP (Internet Content Adaptation Protocol) par les professionnels du réseau. De fait, nombre de prestataires et non des moindres , ont déjà rallié le groupe de travail ICAP : Allaire Corporation, BroadVision, Direct Hit, DoubleClick, Google, Network Associates, Novell, Oracle, Trend Micro, Vignette...Le principe de fonctionnement d'ICAP est simple. Le protocole prend en charge la communication entre des serveurs chargés de délivrer des documents de nature très différente, et permet d'adapter le contenu en temps réel : conversion des formats de documents, mise à disposition de versions internationales ou personnalisées, traductions, détection de virus...ICAP gère en définitive la "traduction" et la circulation des contenus : routage vers le "traducteur", mise en cache des données, envoi vers l'utilisateur etc. A titre d'exemple, un utilisateur qui navigue à l'aide d'un assistant numérique personnel n'a pas à interroger un portail spécialisé, proposant des contenus en WML ("Wireless Markup Language", le langage des appareils communiquants). L'internaute interroge le portail de son choix, puis le protocole ICAP se charge de faire traduire automatiquement ce contenu en WML, avant de le délivrer à l'utilisateur. De la même façon, un téléphone cellulaire qui souhaite accéder à un document HTML, sur un serveur Web, sera automatiquement dirigé vers un serveur d'application spécialisé. Le document est ensuite traduit au "format cellulaire", et reste disponible pour tous les autres mobiles. L'avantage est double : d'une part le document reste disponible à ce format pour tous les autres utilisateurs. D'autre part, ces "traductions" sont accessibles indépendamment des plates-formes. ICAP préfigure un Internet capable d'adapter le contenu en temps réel, indépendamment des matériels utilisés, rendant inutiles les solutions propriétaires. Les différents groupes de travail qui composent aujourd'hui le forum ICAP se réunissent le 14 février à San Francisco, afin de préciser les spécifications du protocole (draft). ICAP devrait être présenté par la suite à l'Internet Engineering Task Force, avant d'être validé ou non comme un protocole stable ("RFC draft", stabilité et interopérabilité vérifiée par la communauté des internautes). France Internet.com : http://france.internet.com/actualite/news1_141299.html
|
|
|
|
|
|
|
|
Garder un oeil sur son compte bancaire pendant que l'on surfe sur le Net sera possible, sauf incident technique, dès samedi. Pour accéder au service, il faut remplir deux conditions. Etre client de Banque directe, la banque sans guichets, et utiliser le moteur de recherche Yahoo. Le moteur de recherche et la banque viennent en effet de conclure un accord. Quand l'internaute-client de l'établissement utilisera "Mon Yahoo", le service qui permet de personnaliser l'accès, il disposera dans un coin de l'écran d'une vue directe sur ses comptes. Et d'un accès par simple clic au site web de sa banque. Yahoo comme Banque directe font le pari que l'accès rapide au compte sera prisé des internautes. C'est le quatrième accord de ce type conclu par Yahoo sur la planète, après les Etats-Unis, l'Angleterre (avec Nat West) et l'Allemagne (avec Deutsche Bank). Pour Banque directe, le rapprochement coule de source. Créée fin 1994, elle a eu du mal à imposer son concept d'établissement sans agences, et n'a réussi à rallier depuis que 62 000 clients. Mais l'Internet est peut-être en train de changer la donne. "Au début de l'année, explique Banque directe, sur 100 appels, 16 seulement passaient par le Web." En décembre, 52 % des contacts avec la banque passaient par l'Internet. Dans le même temps, le Minitel reculait de 50 % à 16 %, et le téléphone maintenait sa position. L'Internet enterre ainsi les autres moyens de connexion, et il ramène même de nouveaux clients: d'après la banque, 20 % des ouvertures de compte se font grâce au Web. L'accord de Banque directe avec Yahoo devrait donner à la banque une nouvelle visibilité. Libération : http://www.liberation.com/multi/actu/semaine991213/art991216.html
|
|
|
|
|
|
|
|
Le Parti Démocrate d'Arizona et Votation.com, Inc. ont signé aujourd'hui un accord " Numérique " pour tenir la première élection au monde qui soit légalement valable et ferme par le biais de l'Internet pour les primaires du Parti Démocrate le 11 mars 2000. " Les élections en ligne vont révolutionner le processus d'élection ", déclare Joe Mohen, Directeur Général (CEO) de Votation.com, Inc. " Votation.com est très heureuse d'être associée au Parti Démocrate d'Arizona pour rendre le processus électoral plus facile que jamais et ainsi permettre aux électeurs de faire la différence. L'annonce qui a été faite aujourd'hui constitue un pas historique dans un effort d'élargissement de la participation électorale au processus démocratique. " Le partenariat entre Votation.com et VeriSign, la plus importante société de sécurité des transmissions Internet, rend le processus électoral plus sûr et plus fiable que jamais il ne l'a été auparavant. Dans une élection organisée par Votation.com, chaque électeur se voit affecter un certificat numérique personnalisé qui n'est accessible que par l'ordinateur dudit électeur. Ce certificat contient des informations qui identifient ledit électeur de façon positive et unique, comme le ferait un passeport ou un permis de conduire. Il en résulte que les élections organisées par les services de Votation.com sont plus sûres que les élections par le bulletin papier traditionnel ou par les machines à voter. " C'est un très grand pas en avant pour les résidants de l'état d'Arizona. Nous ouvrons le processus démocratique non seulement aux jeunes et à ceux qui bénéficient d'un atout technologique mais à tout un chacun. Les Démocrates favorisent une plus grande participation à nos élections et en adoptant les technologies du 21ème siècle, nous pouvons nous assurer qu'un plus grand nombre d'individus passeront aux urnes le 11 mars. C'est une première pour les habitants d'Arizona et des Etats-Unis en général " déclare Mark Fleischer, Président du Parti Démocrate d'Arizona. " Votation.com établit la norme pour les élections publiques par le biais de l'Internet pour le monde entier, " déclare le Dr. Garret Fitzgerald, ancien Premier Ministre d'Irlande et membre du Conseil d'Administration de Votation.com. " Le vote en ligne a la faculté de révolutionner le processus d'élections et d'améliorer de façon significative la participation électorale de par le monde. " Compagnynews/16/12/99 : http://www.companynews.org/default.asp?communique_id=16062
|
|
|
|
|
|
|
|
Très bientôt, c'est juré-craqué, on n'aura plus besoin de rien dans son PC, sinon d'un navigateur. Attention ! on fera tout ce qu'on faisait avant - mais on le fera directement sur le Web. Un premier service en ligne de Substitution de Bureau (appelons ça ainsi) a vu récemment le jour : Personable.com. Depuis la semaine dernière, Personable fournit en ligne plusieurs applications, dont Office 2000. Personable est disponible par souscriptions mensuelles, lesquelles vont de $5 (32 F) à $30 (190 F) environ. Un droit d'entrée supplémentaire vient s'ajouter à la souscription, selon qu'on choisit tel ou tel pack Office. Pour se connecter, on va simplement sur leur site Web, on y entre son e-mail et on choisit un mot de passe. Ensuite, il suffit de télécharger leur appli de 278 Kb. Bien sûr, à l'heure qu'il est, le jeune service n'est pas encore très performant .Enfin, mettons qu'on y soit parvenu. Voici donc votre Substitut de Bureau "Personable"... qui ressemble au logo près à n'importe quel "desktop" Windows. Les applications sont là, avec des raccourcis, la totale. Rien de plus simple alors que de taper par exemple un texte sous Word - mais vous n'avez pas Word, rappelez-vous ! vous l'utilisez en ligne, et c'est comme à la maison, à quelques petits ralentissements près. Notez qu'il est toujours possible de sauvegarder son doc dans un disque dur ou une disquette. Le Substitut de Desktop en est à ses premiers pas (peu d'applications, lourdeurs, longueurs, soupirs), mais il ouvre d'importantes perspectives. Quel est le principal manque sur un PDA ? le principal obstacle à leur explosion massive ? Qu'est-ce qui les retient de supplanter tout à fait les PC de bureau ?... La mémoire tout simplement, c'est-à-dire la capacité de stocker des logiciels et applications dès lors qu'ils sont un peu lourds. Mais si tout cela n'a plus à être stocké, les données changent radicalement. Préparez-vous donc à jeter vos disques durs de 20 Go et vos barrettes pleines de SDRAM ! Le Substitut de Desktop arrive qui va tout alléger... et achever l'avènement du PDA. Lettre de l'internet : http://www.lalettre.com/todaynews.cfm?id=121&actions=view http://www.personable.com/default.asp http://www.personable.com/info/virtualpc.asp (bureau virtuel essayable gratuitement pendant une semaine)
|
|
|
|
|
|
|
|
Pour vendre plus, ne vendons pas": ainsi pourrait se résumer la stratégie d'un nombre croissant d'entreprises sur l'Internet. Dernier exemple en date, Qualcomm, l'éditeur du logiciel de courrier électronique Eudora, a annoncé jeudi que la prochaine version du produit, prévue pour le premier trimestre 2000, serait gratuite. Qualcomm ne renonce pas pour autant à gagner de l'argent: il demande simplement aux internautes d'accepter la présence d'une petite fenêtre publicitaire qu'il promet discrète. Les utilisateurs publiphobes pourront opter pour une version payante ou une version allégée - la plus utilisée à ce jour - dudit logiciel. Dans tous les secteurs liés à l'Internet, on voit se multiplier les offres gratuites, soutenues par la publicité ou le commerce électronique: ce furent dans un premier temps l'accès aux pages web, puis les logiciels de navigation. Suivirent des offres d'accès gratuit au réseau, et même de micro-ordinateur... Qualcomm n'est pas le premier à reconvertir un logiciel payant en logiciel gratuit: fin août, le fabricant informatique Sun Microsystems a annoncé le rachat de l'éditeur de logiciels Star Office et la distribution gratuite, sur l'Internet, de ses logiciels de bureautique (traitement de texte, tableur...). Pour Microsoft, dont l'essentiel des recettes provient des licences d'utilisation des programmes, Star Office constitue une menace sérieuse. Pour Microsoft, la menace de la gratuité est double: sur un autre front, se développe à toute allure le phénomène des logiciels libres, en premier lieu le système d'exploitation Linux. Certains y voient les prémices d'une économie fondée sur le don, qui serait amenée à s'étendre à d'autres domaines. Dans Cybercommunism, un opuscule récent diffusé sur le Net , un professeur anglais, Richard Barbrook, observe que les créateurs de logiciels libres sont en train de "supplanter le capitalisme". Rien de moins. Les membres de cette communauté construiraient une nouvelle forme d'échanges qui défierait les lois du marché. "Dans l'Internet, travailler ensemble en faisant circuler des dons est devenu une expérience quotidienne pour des millions de gens. Comme ils le font dans leur travail, ils collaborent à des projets collectifs pendant leur temps libre. Libéré de la discipline immédiate du marché, le travail peut devenir un cadeau." La simple participation à un groupe de discussions serait l'expression d'un don d'information. Richard Barbrook observe que Karl Marx lui-même avait prédit que "tôt ou tard, le développement des forces productives démocratiseraient les rapports de production". C'est le succès du capitalisme qui aboutirait à l'émergence d'une infrastructure (l'Internet) qui le subvertirait. Sans aller jusqu'à imaginer un nouveau système économique, Gabriel Dabi-Schwebel, un consultant chez Alcatel, estime que, grâce à l'Internet, on peut "s'enrichir en donnant". C'est que "la valeur n'est plus dans la matière mais dans l'information et l'information n'est pas une ressource rare. Du coup, "si le prix représente la rareté, l'optimum entre l'offre et la demande, il était, dans l'économie traditionnelle, normal de payer pour acheter un bien dont on avait besoin, normal de rémunérer quelqu'un qui travaillait. Aujourd'hui, il faudrait plutôt être payé pour acheter et payer pour travailler". libération : http://www.liberation.com/quotidien/semaine/991214marx.html CYBER-COMMUNISM: how the Americans are superseding capitalism in cyberspace http://www.nettime.org/nettime.w3archive/199909/msg00046.html
|
|
|
|
|
|
|
|
France Télécom a communiqué son plan de déploiement de l'ADSL aux fournisseurs d'accès à Internet. La liste classe les communes en cinq catégories, suivant la date de branchement ADSL (ouvert, dernier trimestre 1999, 1er trimestre 2000, 2ème trimestre 2000 et 2ème semestre 2000). Plusieurs villes où France Télécom propose un accès Internet par le câble ne figurent pas sur le plan de déploiement: Biarritz, Anglet, Bayonne, Dunkerque et Valence devront attendre 2001 pour accéder aux infrastructures ADSL de France Télécom. En revanche, Lyonnaise Câble, dont le service d'accès à Internet à haut débit ne prend plus de nouveaux abonnements en raison de problèmes techniques, devra affronter la concurrence de l'ADSL sur la totalité de ses sites d'ici la fin de l'année 2000. L'ADSL est ouvert à Paris et Strasbourg et devrait l'être au 1er trimestre à Annecy, Chambéry et Le Mans, au cours du 2ème trimestre à Hérouville et Orléans et d'ici la fin de l'année 2000 à Besançon. De même, AOL/NC Numéricâble devra d'ici 3 mois affronter la concurrence de l'ADSL à Nice et dans la région lilloise dont de nombreuses communes seront connectées au réseau ADSL d'ici au 31 décembre 1999 (Lille, Lesquin, Lezennes, Marcq en Bareuil, Ronq, Roubaix, Seclin, Tourcoing, Villeneuve d'Asc, Wasquehal). PC Maintenant : http://www.pcmaintenant.com/internet/technique/adsl/adsl3.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
Un processeur horloge à 69 GigaHertz, c'est le composant le plus rapide de la planète présenté par TRW Space & Electronics Group à l'IEEE International Electron Devices Meeting qui se tient en ce moment. Cette puce utilisant comme semi conducteur Indium Phosphide (supérieur au Gallium). Un tel composant est utile pour les communications sur fibre optique en cours de développement. PC Maintenant : http://www.pcmaintenant.com/breves/lesbreves.html
|
|
|
|
|
|
|
|
Les deux sociétés vont investir 500 millions de dollars pour relancer la machine Alpha. 200 millions seront utilisés pour améliorer l'outil de production et 300 pour développer le marché face au PowerPC d'IBM, à l'UltraSparc de Sun, au PA-Risc de Hewlett-Packard et, bien sûr, aux futurs processeurs 64 bits d'Intel. Une partie de ces 300 millions sera utilisée à des fins de marketing. L'autre servira par exemple à mettre en place une plate-forme de validation pour différentes distributions Linux - dont celles de Red Hat, Debian et SuSE. Après l'abandon du portage de NT, Alpha gérera donc à terme trois systèmes d'exploitation - Tru64 Unix, Open VMS et Linux - en attendant le tour des machines Tandem d'ici à deux ans. Ayant acquis une license Alpha, Alpha Processor Inc (API,la filiale du coréen) est, de son côté, autorisé à adapter l'architecture du processeur en vue de l'intégrer à de nouveaux systèmes de type " appliance " (systèmes prêts à l'emploi). API, qui a fait la démonstration du premier processeur Alpha à 1 GHz en juin dernier, à PC Expo, a par ailleurs indiqué que les premières livraisons d'échantillons auront lieu au cours du deuxième trimestre de l'année prochaine. OI Informatique
|
|
|
|
|
Dans la profusion des concepts explorés pour améliorer la puissance des puces, Texas Instruments n'a jamais caché sa préférence pour l'intégration de la mémoire au coeur des processeurs. Il le montre à nouveau avec deux puces intégrant de la SRAM partagée entre plusieurs processeurs dans un même ongle de silicium. Le C5421 intègre 2 coeurs DSP et 4 Mbits de SRAM, tandis que le C5441 dispose de 4 processeurs et de 10,2 Mbits de mémoire. Ces composants devraient prendre place dans des équipements de télécommunications en raison de leur aptitude à gérer de nombreux canaux de voix ou de données, a expliqué l'industriel. Contrairement aux processeurs dotés de mémoire cache interne qui travaille en liaison avec la mémoire vive de l'ordinateur, les composants de Texas n'utilisent aucun composant de mémoire externe pour fonctionner. Network news : http://www.vnunet.fr/VNU2/ent/actualites/page_article.htm?id=7
|
|
|
|
|
|
|
|
Un chercheur américain a annoncé lundi qu'il avait mis au point une batterie au péroxyde d'hydrogène (H202), capable de générer 20 fois plus d'électricité que les batteries automobiles actuelles. La batterie fonctionne par réaction chimique entre le péroxyde d'hydrogène et l'aluminium. "Elle a un énorme potentiel énergétique", a affirmé John Rusek, professeur d'aéronautique et d'astronautique à l'Université de Purdue, à West Lafayette (Indiana). Selon son inventeur, elle est susceptible d'offrir une source d'énergie à bas prix, et une fois perfectionnée, pourrait même alimenter les appareils électroniques portables. Ce procédé pourrait aussi trouver un débouché pour le carburant utilisé dans les fusées spatiales. Le péroxyde d'hydrogène, qui a un atome d'oxygène de plus que l'eau, est facile à produire et, de plus, il est moins dangereux que les oxydants utilisés à l'heure actuelle, tels que l'oxygène liquide utilisé dans l'industrie spatiale. Contrairement au péroxyde d'hydrogène vendu dans le commerce, qui est composé de 97 % d'eau et de 3 % de péroxyde, celui mis au point par le chercheur a une proportion inverse : 97 % de péroxyde pour 3 % d'eau. AFP/14/12/99 : http://www.afp.com/ext/francais/lemonde/sci/991213231221.r4ws6b7a.html
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L'Internet et le commerce en ligne, en pleine expansion, présentent des avantages énormes pour l'environnement car ils économisent de l'énergie et des matériaux, selon une étude publiée vendredi. "L'internet favorise un type de croissance très différent de celui que nous avons connu dans le passé", a indiqué Joseph Romm, auteur de l'étude publiée par le Centre pour les solutions énergétiques et climatiques. "Les économies d'énergie auront un impact important sur l'environnement et entraîneront une modification des prévisions économiques" par le gouvernement et les firmes privées, a-t-il affirmé dans un communiqué. L'économie américaine a cru de 9% sur deux ans en 1997 et 1998, mais la demande d'énergie et restée presque inchangée durant cette période en dépit de la faiblesse des prix, relève l'étude. L'internet permettra d'économiser 2,7 millions de tonnes de papier par an d'ici 2003 ce qui reviendrait à réduire de 10 millions de tonnes les émissions de dioxyde de carbone responsable du réchauffement de la planète, affirme l'étude. En outre, les consommateurs économiseront sur l'essence en faisant des achats de chez eux, ce qui entraînera également une diminution du trafic, relève Joseph Romm. La valeur du commerce en ligne pour les consommateurs individuels devrait passer de 17,8 milliards de dollars en 1998 à 108 milliards en 2003 et son utilisation par les entreprises devrait augmenter de 43 milliards de dollars actuels à plus de 1.000 milliards, selon les prévisions de l'institut de recherche Forrester, cité dans l'étude. L'internet en soi consomme très peu d'énergie, un ordinateur utilisant à peine 150 watts d'électricité. Et les nouvelles générations de PC seront encore moins gourmandes en énergie, conclut l'étude. AFP : http://fr.news.yahoo.com/991210/32/7n73.html
|
|
|
|
|
|
|
|
C'est une maison " verte ", accrochée à la colline pavillonnaire d'Igny (Essonne). La bâtisse en bois tranche sur ses sages voisines par son architecture plus moderne. Mais la révolution est moins dans la forme que dans le fond : tous les matériaux ayant participé à sa construction répondent à un souci environnemental. A la mi-décembre, Annie et Daniel Samson ont emménagé dans " la première maison écologique d'Ile-de-France ", selon ses promoteurs. Briques de terre cuite isolées à la farine de bois, mortier à la chaux naturelle, panneaux de cellulose faits à partir de journaux recyclés et de jute comprimé, peinture naturelle à la caséine, torchis en chanvre, isolants en fibre de bois pressé au bitume végétal, vitrificateur écologique, lasure naturelle, tenons et mortaises dans la charpente : la maison est une sorte d'inventaire des techniques écologiques. Jusqu'au schéma électrique, étudié afin d'éviter les pollutions électro-magnétiques. Le bois " doit être coupé à la lune descendante, afin qu'il contienne moins de sève ". Son séchage se fait de manière artisanale et non dans des fours rapides . Le traitement fongicide s'effectue par un long trempage dans une eau où a été dilué du sel de bore. Le poêle est importé de Finlande : la pierre qui entoure le foyer capte la chaleur qu'elle restitue par rayonnement dans l'ensemble des pièces. La technique de combustion permet également de limiter à 5 % du bois brûlé les rejets, sous forme de fumée ou de cendres. " La maison est bioclimatique, explique son concepteur. Elle respire. Elle permet un échange permanent entre l'air, chaud ou froid, de l'intérieur et de l'extérieur. "Pierre Thibaut fait appel aux savoirs oubliés des bâtisseurs de cathédrale comme aux dernières innovations techniques provenant d'Allemagne ou des pays scandinaves. Les différents corps de métier impliqués dans la réalisation ont dû se plier à l'impitoyable cahier des charges, tout en gardant des prix équivalents à un chantier traditionnel (la maison d'Igny aura coûté environ 8 000 francs du mètre carré). Ces petits artisans ne sont pas les seuls à avoir saisi l'intérêt d'introduire des considérations environnementales dans la construction. Lors du salon spécialisé Bâtimat, en novembre, les produits " bio " ou prétendus tels ont connu le succès. Jusqu'aux grands cimentiers qui proposent aujourd'hui des ciments plus écologiques. Le 18 novembre, la Fédération française du bâtiment (FFB) a signé avec l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe) un accord cadre, insistant notamment sur la maîtrise de l'énergie, la réduction des pollutions et la gestion des déchets de chantier. Le sigle HQE, haute qualité environnementale, est devenu un enjeu : il pourrait bientôt se transformer en norme. Le Monde : http://www.lemonde.fr/article/0,2320,seq-2077-34838-QUO,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les scientifiques du groupe de Craig Venter à l'Institute for Genomic Research", viennent d'identifier le nombre minimal de gènes nécessaire pour définir la vie. Les chercheurs ont séquencé le génome du "Mycoplasma genitalium", l'organisme le plus simple du monde, puis ils ont déterminé et organisé les assemblages géniques de base. Ils ont alors constaté que 300 gènes seulement sont nécessaires à la survie de cet organisme. Les chercheurs américains, parmi lesquels figure Hamilton Smith, prix Nobel pour ses travaux sur la mutagénèse dirigée, ont utilisé une technique de mutagénèse appelée `global transposon mutagenesis' pour générer des mutations tout au long du génome de M. genitalium. L'insertion de transposons au sein de l'ADN de M. genitalium permet d'interrompre le cadre de lecture de plusieurs centaines de gènes. L'intérêt d'une telle stratégie est qu'elle permet d'inactiver toute une série de gènes non indispensables . Ces recherches sur le " génome minimal " touchent à la définition même de la vie. A l'instar du clonage reproductif, impensable avant que la naissance de la brebis Dolly devienne une réalité, ces expériences soulèvent de très importantes éthiques. En effet, leur finalité est, un jour, la création de micro-organismes, existants ou entièrement nouveaux, dont le génome réduit à sa plus simple `expression' serait construit de manière complètement artificielle. Cette découverte pourrait permettre la réalisation d'un mode d'emploi conduisant à la fabrication de créatures synthétiques, et renforce l'hypothèse selon laquelle la vie pourrait être créée par l'association des "bons gènes" dans le "bon ordre". Cette théorie, si elle se confirme pose cependant un problème éthique considérable et, conscient de ce débat, l'Institut de Craig Venter a décidé d'utiliser les compétences de 25 bioéthiciens éminents pour évaluer les conséquences morales et sociales d'une telle découverte. Brève rédigée par @RTFlash BBC News : http://news.bbc.co.uk/hi/english/sci/tech/newsid_558000/558194.stm
|
|
|
|
|
|
|
|
Le ministère de la Santé britannique propose un service en ligne pour aider les Anglais à diagnostiquer et à traiter leurs maladies. Ceux qui ne sont pas connectés à l'internet n'ont pas été oubliés : une hot line téléphonique est à leur disposition. Alan Milburn, secrétaire d'État à la Santé, a expliqué à l'antenne de la BBC : " Aujourd'hui, les gens veulent en savoir plus sur les problèmes de santé et veulent pouvoir les régler eux-mêmes. " Le service, appelé National heath Service Direct fournit une information actualisée sur les maladies les plus bénignes et aide l'internaute à reconnaître les symptômes. Le "patient" pointe sa souris sur la partie du corps souffrante et avale les informations dégluties par la base de données pour se soigner. Il peut aussi remplir un questionnaire qui lui indiquera s'il doit consulter un médecin en chair et en os. Alan Milburn précise que ce procédé ne peut que " compléter et non concurrencer " les compétences des médecins de famille et " aider " les médecins d'hôpitaux à mieux se concentrer sur les maladies graves. Brève rédigée par @RTFlash BBC News : http://news2.thls.bbc.co.uk/hi/english/talking%5Fpoint/newsid%5F554000/554045.st... National Heath Service Direct : www.nhsdirect.nhs.uk./
|
|
|
|
|
Des chercheurs de l'université du Kentucky ont mis au point un comprimé pour le moins étonnant. Ce médicament d'un nouveau genre est constitué d'une bande magnétique enrobée de polymère capable de se rétracter sous l'action d'une réaction acide. Expédié dans l'organisme d'un malade souffrant d'ulcère, ce "comprimé" électromagnétique pourrait transmettre par ondes radio l'état d'acidité de son estomac jusqu'à une distance d'un mètre. Différents types de revêtements céramiques permettraient de mesurer différents paramètres, viscosité, pression, humidité. Capable de détecter les dysfonctionnements de la mécanique humaine, le système développé par les chercheurs américains pourraient trouver son utilité pour mesurer la viscosité de l'huile dans un moteur de voiture et signaler quand une vidange s'avère nécessaire. Brève rédigée par @RTFlash New Scientist : http://www.newscientist.com/
|
|
|
|
|
|
|
|
Une équipe de scientifiques du Centre universitaire de santé McGill (CUSM), de l'Université McGill et de l'Université de Montréal a annoncé aujourd'hui qu'une percée avait été réalisée en vue du traitement des lésions médullaires (lésions de la moelle épinière). " Nous avons testé avec succès un nouveau vaccin permettant de bloquer les molécules qui font obstacle à la régénération nerveuse dans la moelle épinière ", a déclaré le Dr Samuel David de l'Institut de recherche de l'Hôpital général de Montréal (CUSM) et chercheur principal du projet. " Au plan de la régénération, cette technique nous a permis d'obtenir des résultats bien supérieurs à tout ce qui a été présenté jusqu'à maintenant. Cette importante découverte vient changer notre approche et notre méthode de travail en vue d'élaborer des stratégies qui nous permettront de traiter les lésions médullaires chez l'être humain. " " Ce sont souvent de jeunes adultes qui subissent des lésions médullaires qui les rendent à jamais invalides ", a fait remarquer le Dr Peter Braun, du département de biochimie de l'Université McGill. " Comme on ne peut pas réparer les fibres nerveuses atteintes de la moelle épinière, les effets (paralysie, perte sensorielle et incontinence urinaire et fécale) sont permanents. Les travaux de recherche que nous avons réalisés révèlent que plusieurs molécules peuvent inhiber ou empêcher la régénération nerveuse. La myéline, une membrane riche en gras qui forme un manchon isolant autour des fibres nerveuses, renferme ces molécules inhibitrices. Le vaccin que nous avons testé permet de bloquer ces inhibiteurs sans provoquer de réactions indésirables. " Selon le Dr David, il convient maintenant de cerner d'autres inhibiteurs afin que cette découverte puisse avoir une utilisation clinique. Ils pourront ensuite tester en laboratoire un cocktail d'inhibiteurs épurés à titre de vaccin qui pourrait être administré aux humains. " Mais avant de passer à cette étape, nous avons encore beaucoup de travaux de recherche fondamentale et d'essais sur la planche ", a-t-il ajouté. " Nous avons néanmoins franchi un jalon important en vue de mettre au point un traitement des lésions médullaires. Webbio : http://webbio.net/france/nouveau.htlm
|
|
|
|
|
|
|
|
Des chercheurs américains annoncent avoir découvert une protéine anormale qui intervient dans la pathogénèse de la maladie d'Alzheimer. Présente dans les neurones en dégénérescence neurofibrillaire, cette protéine s'accumule dans le cerveau des malades. l s'agit en fait d'un fragment de protéine, baptisé p25, qui provient du clivage protéolytique aberrant d'une protéine, la p35, qui régule l'activité d'une troisième : la `cyclin-dependant kinase 5' ou Cdk5. Cette dernière intervient notamment dans le développement des axones et des dendrites. Au cours de la formation du cerveau, on observe une augmentation du taux de Cdk5. La protéase qui clive la p35 pourrait servir de cible thérapeutique dans la maladie d'Alzheimer. A ce jour, le mécanisme de ce clivage anormal est cependant encore inconnu et la protéase responsable reste à identifier. Deux stratégies, faisant chacune appel à des inhibiteurs spécifiques, peuvent être envisagées : le blocage du clivage aberrant de la p35 ou l'inhibition de la Cdk5. La prochaine étape pour les chercheurs sera donc d'essayer d'arrêter ou d'inverser la neurodégénérescence de la maladie dans des modèles animaux en utilisant des inhibiteurs de la p25 ou de la Cdk5. On le sait, le diagnostic clinique de la maladie d'Alzheimer est confirmé lorsque l'examen neuropathologique montre la présence de deux types de lésions cérébrales : les plaques séniles, qui correspondent à des dépôts de peptide amyloïde, et les neurones en dégénérescence neurofibrillaire. " Ces résultats indiquent que le clivage de la p35, suivi de l'accumulation de la p25, est impliqué dans la pathogénèse des anomalies du cytosquelette et dans la mort neuronale de maladies neurodégénératives ", concluent les auteurs. Cette découverte est d'autant plus intéressante que la dégénérescence neurofibrillaire n'est en effet pas spécifique à la maladie d'Alzheimer. Elle s'observe notamment dans la trisomie 21, le syndrome de Guam, le Parkinson post-encéphalitique, la maladie de Niemann-Pick de type C, ainsi que dans d'autres affections neurodégénératives. Caducée : http://www.caducee.net/
|
|
|
|
|
|
|
|
Le simple papier aluminium et un laser bon marché pourraient bien révolutionner la radiothérapie en mettant d'ici 5 ans à la portée de la plupart des hôpitaux le traitement par protonthérapie. Des physiciens américains ont en effet produit un flot de protons énergétiques - qui pourrait être employé pour la destruction de tumeurs - en vaporisant une feuille de métal avec un laser. Les tumeurs sont d'habitude irradiées par des électrons ou des rayons gamma produits par un accélérateur linéaire. Mais les électrons et des rayons gamma perdent leur énergie très rapidement par interaction. Les protons, en revanche conservent presque toute leur énergie jusqu'à ce qu'ils atteignent leur cible, et détruisent ainsi les tumeurs avec une précision plus grande. Malheureusement peu d'hôpitaux ont les moyens de s'équiper en matériel de protonthérapie qui exige des cyclotrons géants qui coûtent plus de 100 millions de FF. "S'il y avait une source bon marché de protons de haute énergie, il y aurait l'intérêt énorme," souligne Alain Du Sautoy, chercheur au Laboratoire Britannique National de Physique à Teddington. Une équipe menée par Donald Umstadter de l'Université du Michigan a expérimenté avec du papier aluminium de 10 micromètres d' épaisseur un laser à impulsion de 400-femtoseconde. Le champ électromagnétique intense du laser a arraché les électrons d'atomes hydrogènes de l'eau, en condensation sur la feuille de métal, les accélérant à une vitesse proche de celle de la lumière dans la même direction que la lumière laser. Les protons - des noyaux des atomes d'hydrogènes - se sont alors repoussés et ont été entraîné à la suite des électrons. "Le résultat était une impulsion de 10 milliards de protons avec une énergie de 2 méga-electronvolts," dit Anatoly Maksimchuk de l'équipe du Michigan. Pour tuer des cellules cancéreuses, la source de proton aura besoin de cent fois cette énergie, mais Umstadter croit que cela peut être réalisé en frappant la feuille de métal 100 fois par seconde avec un laser à impulsion plus efficace de 20 femtosecondes. Umstadter pense qu'un tel dispositif pourrait être mis au point d'ici cinq ans et qu'il serait non seulement bon marché mais n'occuperait qu'un coin de table, au lieu des plusieurs pièces nécessaires pour un cyclotron. Il produirait en outre un rayon bien plus précis qu'un cyclotron, seulement 10 micromètres, à comparer avec plusieurs millimètres pour le cyclotron. Cette précision serait particulièrement utile pour le traitement de tumeurs cérébrales. Brève rédigée par @RTFlash New Scientist : http://uk.news.yahoo.com/991207/18/c9kb.html
|
|
|
|
|
|
|
|
Mis au point par des chercheurs américains de l'Université de Californie, des implants minuscules qui agissent comme des neurones artificiels pourraient annoncer une percée en matière de traitements pour les patients victimes de fractures et traumatismes multiples . Ces implants offrent la particularité de pouvoir être injectés directement dans les muscles pour les stimuler de l'intérieur et empêcher ainsi leur affaissement. Pour de nombreuses victimes d'accidents clouées au lit, cette atrophie musculaire peut mener à de graves complications comme la thrombose . Les muscles inutilisés peuvent également devenir si faibles que le bras finit parfois par se disloquer de l'épaule. Pour empêcher ces problèmes, les chercheurs menés par Gerald Loeb, un ingénieur biomédical de l'Université de Californie du Sud, ont développé les électrodes à peine plus grandes qu'un grain de riz. Avec seulement 2 millimètres dans le diamètre elles sont assez petites pour être injecté directement dans un muscle . Une fois en place elles sont activées par un signal radio d'un émetteur porté par le patient. Cet émetteur contrôle la fréquence et l'intensité des stimuli électriques produits par chaque implant. L'équipe de Loeb a commencé des essais le mois dernier. Le premier patient a reçu ces implants dans deux muscles de l' épaule. Les implants ont stimulé ces muscles et le patient n'a ressenti aucune douleur, juste une sensation de chatouillement. Les électrodes employées sont conçues pour délivrer une impulsion de 30 milliampères pendant environ 0.5 millisecondes, ce qui est bien au-dessous du niveau dangereux pour les tissus. "Une fois que les implants introduits dans le muscle, on peut régler quel le niveau de stimulation optimal pour obtenir une contraction," souligne Loeb. Ayant déterminé les seuils corrects, les docteurs peuvent alors télécharger un logiciel d'exercice dans un boîtier portatif que le patient va pouvoir emporter avec lui. L'objectif suivant de ces recherches est de concevoir des implants plus sophistiqués qui pouvant stimuler des mouvements utiles, tels que la préhension d'objets, chez des patients victimes de lésions de la moelle épinière. Brève rédigée par @RTFlash New Scientist/11/12/99 : http://www.newscientist.com/ns/19991211/newsstory1.html
|
|
|
|
|
|
|
|
Reuteurs/8/12:99 : http://dailynews.yahoo.com/h/nm/19991208/hl/dsb_12.html Un gène qui contrôle le développement du cancer en empêchant des cellules de proliférer peut aussi empêcher les artères de se reboucher après une angioplastie, selon les résultats d'une étude réalisée sur des souris.Après une angioplastie, pendant laquelle un ballon au bout d'un cathéter est inséré dans une artère et gonflé, l'artère se rebouche au moins en partie dans environ un tiers des cas souligne l'auteur principal de l'étude, le Docteur Pier Paolo Claudio, de l'Université Thomas Jefferson à Philadelphie. Celui-ci précise qu'on ne connaît pas exactement les causes qui conduisent l'artère à se reboucher aussi souvent. Sachant qu'un gène appelé Rb2/p130 aide normalement à protéger contre le cancer en limitant la prolifération des cellules, les chercheurs américains ont voulu voir si un traitement avec ce gène empêcherait des artères de reboucher après une angioplastie. Ils ont donc, à l'aide d' virus inoffensif, injecté ce gène à des souris ayant les artères coronaires bouchées. Les souris ont alors subi une angioplastie et leurs artères ne se sont pas rebouchées. "Nous 'avons prouvé qu'un gène de contrôle tumoral peut être employé pour soigner d'autres maladies que le cancer" souligne le docteur Claudio. Cette thérapie génique doit cependant être encore évaluée chez l'animal avant qu'elle ne puisse être essayée chez l'homme, "dans 2 ou 3 ans si tout se passe bien" précise le docteur Claudio. Brève rédigée par @RTFlash New Scientist/11/12/99 : http://www.newscientist.com/ns/19991211/newsstory1.html
|
|
|
|
|
|
|
|
Deux chromosomes de plante, une herbe commune de la même famille que la moutarde, viennent pour la première fois dans le monde d'être décryptés par des chercheurs. Ces travaux de chercheurs américains et britanniques décrivent pour la première fois les séquences complètes des chromosomes 2 et 4 d'Arabidopsis thaliana, une herbe commune présente sous de nombreuses latitudes. Le séquençage consiste à faire l'inventaire et à cartographier tous les gènes d'un organisme. Les plantes disposent de 30 à 40.000 gènes, identifiables aujourd'hui grâce aux techniques de biologie moléculaire. Une fois ces gènes identifiés, la génomique étudie leur régulation, leurs fonctions et leurs interactions. Le choix de cette herbe très répandue tient principalement à la simplicité relative de son génome: Les séquences d'ADN totalisent chez cette plante 37,1 millions de paires de bases. A titre de comparaison, le génome du maïs contient 2,5 milliards de paires de base, presque autant que le génome humain. Selon les chercheurs, les informations tirées des gènes de cette plante devraient pouvoir s'appliquer à un grand nombre d'espèces cultivées. La plupart des gènes identifiés se retrouvent en effet dans des plantes comme le blé ou le riz où ils assurent les mêmes fonctions. Ces gènes peuvent par exemple contrôler la résistance aux maladies, permettre l'adaptation aux variations climatiques ou contrôler la synthèse de vitamines. Comme gènes de plantes et gènes humains paraissent avoir des points communs, la compréhension du fonctionnement d'un gène de plante pourrait aider à comprendre celui d'un gène humain et réciproquement, d'après les chercheurs . Cette nouvelle percée intervient quelques semaines à peine après l'annonce du décryptage complet d'un chromosome humain, le chromosome 22. voir @RTFlash 74, rubrique génétique http://www.tregouet.org/lettre/index.html Brève rédigée par @RTFlash Nature/16-12-99 : http://www.nature.com/server-java/Propub/nature/402761A0.abs_frameset
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Depuis son apparition sur Terre, il y a 3,5 milliards d'années, la vie a dû s'adapter à un environnement qui a profondément varié. La diversité des espèces passées et présentes est là pour le prouver. A plusieurs reprises, la pression du milieu a été si importante qu'elle s'est traduite par des hécatombes, attestées par les études stratigraphiques et paléontologiques. " Certaines ont atteint une telle ampleur qu'elles ont représenté un changement de la physionomie générale du monde vivant. A tel point qu'elles ont servi dès le siècle dernier à déterminer la frontière entre certaines périodes géologiques ", explique Eric Buffetaut, paléontologue et directeur de recherche au CNRS. La plus étudiée et la plus connue est celle qui a entraîné la disparition des dinosaures, il y a 65 millions d'années. Avec eux ont également été rayés de la planète la plupart des organismes planctoniques ainsi qu'un grand nombre d'invertébrés marins et de grands vertébrés terrestres. Pas un animal d'un poids supérieur à 25 kilos n'a survécu au cataclysme. Les causes de cet événement, qui a marqué la fin du crétacé et le début du tertiaire, font encore l'objet d'âpres débats parmi les scientifiques. L'impact d'une météorite de 10 kilomètres de diamètre sur la presqu'île du Yucatan, au Mexique, qui aurait provoqué une sorte d'" hiver nucléaire ", d'une part, et de monstrueuses coulées de lave ayant duré 500 000 ans, d'autre part, sont les deux hypothèses avancées le plus souvent. Cette extinction est loin d'être la seule. " Elle a été précédée de quatre autres grandes crises, rappelle Claude Babin, professeur de paléontologie à l'université de Lyon. La plus ancienne a frappé la fin de l'ordovicien, il y a 440 millions d'années ; puis il y a eu celle du dévonien supérieur, il y a 365 millions d'années ; celle de la fin du permien, il y a 250 millions d'années ; et enfin celle du trias supérieur, il y a 210 millions d'années. ";La première a été marquée par la disparition de 85 % des espèces, notamment marines. Il semble que la planète ait subi à cette époque une glaciation, à un moment où le super-continent Gondwana était installé au pôle Sud. Cela a eu pour effet de le recouvrir d'une couche de glace, et de faire baisser le niveau des mers, en appauvrissant les eaux en oxygène. Soixante-quinze millions d'années plus tard, la crise du dévonien supérieur a, au contraire, été provoquée par un réchauffement climatique suivi d'une déglaciation. Les eaux mal oxygénées se sont alors répandues sur les plateaux continentaux, près des côtes, où vivaient 85 à 90 % des espèces marines, ce qui a provoqué un massacre. Sur les continents, en revanche, les plantes et les arthropodes n'ont pas paru affectés. L'extinction de la fin du trias se présente différemment. Elle fut, apparemment, beaucoup plus longue que les autres. Mais " la crise majeure ", la catastrophe la plus importante pour la vie sur la Terre, est, de l'avis de nombreux paléontologues, celle qui a frappé la fin du permien, il y a 250 millions d'années. Elle a presque entièrement dépeuplé les mers, où ne survécurent que quelques mollusques, des créatures aux allures de crevettes, ainsi que de rares requins et poissons osseux. Sur terre, les amphibiens primitifs ainsi que la plupart des reptiles mammaliens se sont presque complètement éteints. Il y eut également une régression des plantes. " La vie a mis du temps pour récupérer ", insiste Claude Babin. A cette époque, tous les continents étaient réunis en un super-continent unique, la Pangée, s'étendant du pôle Nord au pôle Sud. Ce regroupement a eu pour conséquence de modifier le climat, et de réduire considérablement la surface des mers peu profondes où sont concentrés les êtres vivants. Ces grandes crises du vivant résultent donc souvent d'une conjonction de causes mêlant impacts météoritiques, volcanisme important, regroupements en super-continents et modification climatique. Elles ont joué un rôle important dans l'évolution des espèces, en ouvrant de nombreuses niches écologiques dans lesquelles de nouveaux organismes se sont développés. Il est classique de dire que la disparition des dinosaures a permis aux mammifères, jusque-là cantonnés à de petites tailles, de développer leurs potentialités, et aux oiseaux, descendants directs des dinosaures, de prendre leur essor. L'étude de ces cataclysmes a aussi montré la fragilité de la biosphère terrestre. Certains scientifiques n'hésitent pas à dire qu'une sixième extinction a commencé, due à Homo sapiens cette fois. C'est le thème de l'ouvrage La Sixième Extinction : évolution et catastrophes, publié récemment par Richard Leakey et Roger Lewin (Flammarion, 1999, 352 p., 45 F, 6,9). Une inquiétude partagée par Philippe Bouchet, zoologiste et professeur au Muséum national d'histoire naturelle. " Pour les groupes les mieux connus, tels que les oiseaux et les mammifères, le taux d'extinction dû à l'homme depuis deux cents ans est quarante à soixante fois supérieur au taux d'extinction naturel, dit-il. Et, dans la forêt tropicale, il est dix mille fois supérieur. " Le Monde : http://www.lemonde.fr/article/0,2320,seq-2077-34716-QUO,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Bourrées d'électronique et d'accessoires divers, les voitures deviennent de plus plus gourmandes en électricité. Pour alimenter cette fringale, le bon vieil alternateur n'est plus vraiment dans la course. Alors, Renault et Valeo prévoient déjà de le remplacer par un accessoire magique, l'Adivi (abrégé d'alternateur-démarreur intégré au volant d'inertie). Constituée d'un stator (fixe) et d'un rotor (mobile), cette innovation, qui devrait équiper les voitures dans quelques années, assure à elle seule quatre fonctions différentes : la production d'électricité, la mise en route du moteur, l'entraînement de la voiture lors des premiers tours de roue et le remplacement du volant d'inertie ! L'Adivi parvient à accomplir cette quadruple performance car il s'intercale entre le vilebrequin du moteur et la boîte de vitesses. Ainsi, quand la voiture roule, le moteur entraîne directement la rotation du rotor. Au contact du stator, il se crée alors un champ magnétique qui produit de l'électricité. Mais la grande astuce de l'Adivi, c'est qu'il peut aussi fonctionner à l'envers. Si on lui fournit du courant, il se transforme en moteur électrique qui entraîne le vilebrequin. Il assure la fonction de démarreur, mais, comme il est bien plus puissant, il va pouvoir épauler le moteur thermique pendant les premiers tours de roue. Ce qui permet de pratiquer, dans les embouteillages, le stop and go : chaque fois que la voiture s'immobilise, le moteur thermique s'arrête puis, dès que l'automobiliste appuie sur l'accélérateur, il redémarre grâce à l'Adivi. D'où une réduction de la consommation et des gaz d'échappement. Enfin, implanté à la place du volant d'inertie, dont il assure la fonction de lissage de la rotation, l'Adivi permet de gagner, sous le capot, la place de l'alternateur et du démarreur. Inutile de dire que cette petite merveille fait saliver, outre Renault, tous les constructeurs automobiles. Le Point : http://www.lepoint.fr/data/PNT1421/2105303P.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|