|
|
|
|
|
NUMERO 78 |
|
|
|
|
|
|
|
Edition du 31 Décembre 1999
|
|
|
|
|
Edito
Meilleurs voeux pour l'An 2000
Chère lectrice, Cher lecteur, Je vous fais parvenir aujourd'hui, dernier jour du XXe siècle, un numéro spécial d'@RT Flash. Il est deux fois plus épais que d'habitude. En effet, à notre maintenant coutumière cyber-revue hebdomadaire, j'ai tenu à ajouter un numéro spécial du millénaire qui, en plus de l'éditorial et de brèves traitant du long terme, est surtout marqué par la photographie que moi-même et ma petite équipe avons, modestement, essayé de réaliser pour vous permettre de voir en un seul coup d'oeil le millénaire de conquête scientifique qui se termine. Quand en mai 1998, j'ai décidé de lancer @RT Flash, c'était essentiellement pour répondre aux suggestions qui m'avaient été faites par plusieurs lecteurs de mon ouvrage “ Des Pyramides du Pouvoir aux réseaux de Savoirs ”. Je ne me doutais pas, alors, qu'en cette fin de 1999, alors que nous n'en sommes encore qu'au numéro 78, vous seriez déjà plusieurs milliers à recevoir chaque semaine cette Lettre (ce qui en lecteurs représente, paraît-il, un nombre bien plus grand encore). Cette progression ne semble pas s'essouffler puisque, régulièrement, vous êtes encore plusieurs dizaines et même parfois plusieurs centaines d'internautes à vous abonner, gratuitement, chaque semaine, à notre Lettre. Ceci est pour nous un précieux réconfort et un encouragement à toujours aller plus loin. Je dis bien “ nous ” car, s'il est vrai qu'@RT Flash réquisitionne désormais deux heures chaque jour (pour être exact, je devrais dire chaque nuit !) dans mon emploi du temps personnel, il ne me serait pas possible de vous faire parvenir chaque semaine cette somme de travail si mes quatre collaborateurs et collaboratrices, Brigitte, Mark, Monique et Olivier, tous assistants parlementaires, ne savaient pas, parmi les autres et nombreuses missions qui leur sont confiées, trouver le temps pour surveiller tous les sites mondiaux où la connaissance montre le “ bout de son nez ”, pour attirer mon attention sur tout ce qui leur semble le plus intéressant et pour mettre en forme les brèves qui, toutes les semaines, vous sont adressées. Les messages que nous recevons chaque semaine de nombreux lecteurs sont pour chacun d'entre nous autant de sources nouvelles d'énergie qui alimente notre volonté. Je vous présente, Chère lectrice, Cher lecteur d'@RT Flash, mes voeux les meilleurs et les plus sincères pour l'an 2000. Si vous le voulez, nous ferons encore beaucoup de chemin ensemble.Bien cordialement. René TREGOUET 2{Editorial : Un siècle de conquête scientifique2} Il y a presque 100 ans, en décembre 1900, le grand physicien allemand Max Planck exposait devant l'Académie de Berlin sa théorie des quanta qui allait bouleverser de fond en comble le bel édifice de la physique classique qu'on avait cru achevé à la fin du XIXème siècle. Einstein, De Broglie, Schrödinger, Paul Dirac et Heinsenberg s'engouffrèrent dans la brèche ouverte par Planck et en un quart de siècle ils construisirent la mécanique quantique qui constitue l'une des plus grandes révolutions conceptuelles de ce deuxième millénaire. En même temps qu'il participait à cette aventure collective, Einstein élaborait seul un nouveau cadre théorique en macro-physique avec sa théorie de la relativité restreinte (1905) puis générale (1916) qui devait unir dans un nouveau cadre théorique d'une rare élégance matière, énergie, espace et temps. Ainsi, notre premier demi-siècle vit se dérouler deux extraordinaires révolutions scientifiques qui vinrent bouleverser notre représentation du monde, la mécanique quantique, formalisée en 1927 à l'occasion du célèbre Congrès Solvay et la relativité générale. Au cours de la 2ème moitié de notre siècle, trois autres révolutions à fortes conséquences technologiques devaient également bouleverser nos connaissances et transformer radicalement nos économies et notre vie quotidienne. La première révolution eut lieu en 1948 avec l'invention d'un nouveau composant électronique par les Laboratoires Bell, le transistor, qui allait changer la face du monde en permettant la construction d'ordinateurs toujours plus puissants, plus petits et moins chers. Pratiquement au même moment, et ce n'est pas un hasard, un jeune et brillant mathématicien américain de 30 ans, Claude Shannon, publia sa "théorie mathématique de l'information". La première révolution informatique pouvait commencer. Ces innovations majeures furent complétées par l'avènement du circuit intégré en 1958, puis du microprocesseur en 1971, qui permit l'essor fantastique de la micro-informatique. En 30 ans, le nombre de transistors contenus dans une "puce" a été multiplié par 10000, passant de 2000 à 20 millions et la puissance des microprocesseurs, conformément à la loi empirique que Gordon Moore a édictée en 1965, continue de doubler tous les deux ans, ce qui nous permet aujourd'hui de disposer dans notre PC d'une puissance de calcul supérieure à celle de la NASA en 1969 lorsqu'elle envoya le premier homme sur la Lune. En cette fin de siècle, tout indique que cette course vers l'infiniment petit va se poursuivre pour atteindre le niveau atomique. Richard Feynman avait raison lorsqu'il écrivit en 1959 son article célèbre prévoyant cette extraordinaire exploration du nanomonde, intitulé "Il y a plein de place en bas". La deuxième révolution de ce demi-siècle commença en 1953 lorsque deux jeunes chercheurs anglais, Watson et Crick, découvrirent la structure en double hélice de l'ADN, molécule qui constitue nos gènes. Mais après avoir élucidé ce grand mystère du vivant, il restait à cartographier et à décoder l'ensemble du génome humain, une tâche immense que beaucoup de chercheurs n'imaginaient pas réalisable avant le milieu du XXIème siècle. C'était sans compter sur les immenses progrès de l'électronique et de l'informatique qui vont permettre d'achever ce travail de titan dans les premières années du prochain siècle. N'est-il pas symbolique qu'en cette fin d'année 1999, les chercheurs annoncent la première cartographie complète d'un chromosome humain ! Cette connaissance totale du génome humain aura des conséquences extraordinaires en matière de prévention et de traitements de l'ensemble des maladies, et permettra également de retarder considérablement les effets du vieillissement, ce qui entraînera de profonds bouleversements dans nos sociétés. Enfin, la troisième et dernière révolution de ce demi-siècle commença en 1992, lorsqu'un jeune étudiant au CERN de Genève, Tim Berners-Lee, mit au point un nouveau protocole de communication qui permettait l'échange normalisé de documents entre ordinateurs. Le Web était né et sept ans après, il compte 200 millions d'utilisateurs dans le monde et il est devenu l'un des principaux moteurs de la croissance et de l'économie mondiale. On le voit, si un siècle mérite l'appellation de siècle de la science, c'est bien notre XXème siècle finissant. Mais alors que notre civilisation chrétienne va entrer dans son troisième millénaire, une des leçons essentielles que nous devons conserver du siècle que nous quittons doit nous conduire à l'humilité. En effet, depuis plus de 70 ans, la Théorie du Tout qui nous permettrait de “connaître la pensée de Dieu ” comme l'a si joliment dit le cosmologiste Stephen Hawking, se dérobe à chaque fois que nos savants ont l'impression de s'en approcher. Einstein a passé toute la fin de sa vie à chercher, en vain, cette mythique théorie. Il avait bien su imager la dimension du problème à résoudre en disant : “ la nature ne nous montre que la queue du lion. Mais il ne fait aucun doute pour moi que le lion à qui elle appartient est au bout ”. Pour Einstein, cette queue du lion est l'Univers tel que nous le percevons et le lion dans sa majesté ne serait-il pas un “Multivers ” que les êtres humains n'ont pas encore réussi à imaginer ? Pour le présent, en ce 20ème siècle qui finit, la queue du lion a pris la forme de deux théories, la théorie quantique (qui décrit les forces électromagnétique, faible et forte) et la relativité générale (qui décrit la gravitation). Or, pourquoi le cacher, l'un des grands problèmes de ce siècle aura été la guerre froide qui s'est développée entre la relativité générale et la théorie quantique et, malgré les efforts des cosmologistes avec la théorie des supercordes en dix dimensions, aucune équation élégante, simple et cohérente n'a pu expliquer notre Univers de l'extrêmement petit à l'extrêmement grand dans une approche unique et ultime. Il serait pourtant difficile de croire qu'au niveau le plus fondamental, la Nature (ou Dieu) ait pu créer un Univers où la main gauche aurait ignoré ce que faisait la main droite. Ainsi, à l'encontre de ce que disait dernièrement un scientifique qui occupe par ailleurs de hautes fonctions politiques et qui affirmait qu'il n'y a plus de futur pour la Physique, je souhaite pour notre planète et pour l'avenir de l'Homme que la connaissance fondamentale fasse au 21ème siècle les mêmes pas de géant que ceux réalisés pendant la première partie du 20ème. C'est bien là où il nous faut revenir sur cette leçon d'humilité que nous livre le siècle qui se termine. Ne confondons pas l'évolution de la connaissance fondamentale et le développement foudroyant des technologies auquel nous assistons actuellement. Comme je le disais plus haut, nous résolvons les équations dix mille fois plus rapidement qu'il y a 30 ans et, dans quelques années, ce facteur d'accélération atteindra même les 100.000, avant de grimper, sans pause, vers d'autres sommets. Mais les équations fondamentales essentielles résolues par nos machines restent les mêmes depuis bientôt un siècle. Ne nous laissons pas leurrer par le “tintamarre technologique ” de cette fin de siècle : même si nous mettions en “massivement parallèles” tous les ordinateurs du monde, le niveau d'intelligence et d'imagination atteint par cet extraordinaire outil de calcul serait ridiculement faible par rapport au “génie ” qui hantait les cerveaux de Einstein, Max Planck, Werner Heisenberg, ou hante toujours celui de Stephen Hawking. Ne confondons pas logique et mémoire avec intelligence et imagination. Les premières qui, par principe, définissent les domaines de la machine, sont marquées par leurs propres limites alors que les secondes qui définissent la spécificité de l'Homme n'ont pas de limite. Oui, l'avenir de l'Homme se trouve bien dans sa propre intelligence et dans son imagination sans borne et non pas dans le coeur d'un microprocesseur, aussi grande puisse être sa puissance de calcul. C'est donc par un véritable “hymne à l'Homme” que je voudrais que se termine ce siècle. Comme l'a si bien dit un grand personnage, le Général de Gaulle qui, de sa haute stature, a su, lui aussi, dominer ce siècle : “ il n'y a qu'une chose qui vaille : c'est l'Homme ”. René TREGOUET Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Près de 58 % des courriers électroniques adressés à 200 sites Web restent sans réponse après deux semaines d'attentes, selon une nouvelle étude QualiWeb réalisée du 13 septembre au 8 novembre 1999. Celle-ci souligne que plus d'un e-mail sur dix (12 %) ne reçoit jamais de réponse. Point positif, près de 20 % des sites répondent systématiquement à tous les messages, soit mieux que les 9 % obtenus l'année dernière. Les sociétés les plus réactives sont celles orientées vers le service, avec par exemple 72 % de réponses, en grande majorité sous 24 heures, chez les compagnies de courtage sur Internet. L'étude explique que le contenu et le ton des réponses varient beaucoup en fonction des secteurs d'activité des sociétés interrogées. Tandis que les sociétés du Web affichent une certaine "proximité" dans leurs expressions ("Bon surf et à bientôt"), les spécialistes de la VPC préfèrent les formules de politesse courtes. La palme du style personnalisé et presque "attentionné" revient aux sites spécialisés dans le luxe et le haut de gamme, comme par exemple la Bourse ou les cosmétiques. La méthodologie employée pour la réalisation de cette étude est relativement simple. Un millier de courriers électroniques "mystères", c'est-à-dire envoyés comme s'ils provenaient de la part de "vrais" internautes, ont été adressés à 200 sites Web représentatifs de 16 secteurs d'activité. Parmi ces secteurs on trouve, l'assurance, l'audiovisuel, la banque, l'informatique, les loisirs, la VPC, etc. Il ne reste plus aux responsables de l'étude qu'à attendre les réponses... s'il y en a. Vunet : http://www.vnunet.fr/VNU2/index.htm
|
|
|
|
|
|
|
|
Les internautes français, particuliers ou entreprises, disposeront d'un nouveau moyen d'accès à des services haut débit dans les derniers mois de l'an 2000. La boucle locale radio arrivera sur le marché français après l'attribution de fréquences nationales et régionales par l'Autorité de régulation des télécommunications (ART), qui doit intervenir à partir du second semestre de l'an prochain. Investissement important. La boucle locale radio, un marché mondial estimé à près de 1 milliard de dollars (982 millions d'euros) par Alcatel pour l'équipement des PME et des entreprises individuelles, permet d'émettre et de recevoir des données à très haut débit par voie hertzienne. Cette nouvelle technologie répond à deux problématiques. La première est posée par la forte croissance des besoins de services et de capacité de transmission pour l'usage d'Internet ou de réseaux de données. La seconde est d'ordre réglementaire et économique. La boucle locale radio ouvre aux opérateurs alternatifs la voie du marché local des télécommunications et l'accès direct à l'abonné, sans dépendre des infrastructures de France Télécom, qui détient un monopole de fait. Ensuite, la boucle locale radio s'avère avantageuse pour atteindre des bassins de population dispersés et pour l'instant restés à l'écart de la vague Internet. Les investissements augmentent à la mesure de la montée en charge du réseau. Les technologies ADSL (qui démultiplie la capacité de transmission du fil de cuivre du téléphone) ou optique supposent, quant à elles, un investissement fixe de départ important, quel que soit le nombre d'abonnés effectif. Plusieurs technologies vont donc cohabiter. Internet est d'ores et déjà accessible, à bas débit, par le fil du téléphone ou par le câble dans certaines zones. Selon les dernières statistiques de l'ART, on dénombrait 20.460 abonnés individuels à Internet via le câble en février 1999 sur 2,58 millions abonnés fin décembre 1998. Les technologies ADSL ou optiques renforceront leur intérêt. Les opérateurs investissent déjà dans l'actualisation de leur réseau pour servir d'abord les entreprises. Une limite géographique. Mais, dans les deux cas, le montant des investissements nécessaires à l'équipement d'un réseau limite a priori ces moyens d'accès aux zones de population et d'entreprises denses. Ainsi, il est admis que l'ADSL ne pourra pas être installé chez tous les abonnés ou les petites entreprises isolées. La majorité des opérateurs viseront en priorité les entreprises, plus rentables que les particuliers. La concurrence provoquée par ces différents moyens d'accès à Internet à haut débit contribuera inévitablement au développement de l'usage de la Toile, dont le niveau dépendra également du prix des services. Une autre technologie contribuera également fortement au développement d'Internet, celle liée à la téléphonie mobile, et la troisième génération prévue qui devrait arriver en France vers 2002. Tribune : http://www.latribune.fr/Tribune/Online.nsf/Articles/19991220118789?OpenDocument
|
|
|
|
|
|
|
|
La télévision a encore de beaux jours devant elle. A en croire la centrale d'achat d'espaces IP France, filiale du groupe CLT-UFA, le développement rapide de l'utilisation d'Internet en Europe n'a pas d'impact sur l'audience ni sur les recettes publicitaires des télévisions. Alors que la part des foyers abonnés à Internet en Europe de l'Ouest est passée de 5,1 % à 17,3 % entre 1997 et 1998, les Européens passent toujours plus de temps devant leur téléviseur. La durée d'audience moyenne a encore augmenté de 6 minutes, pour atteindre 3 heures et 25 minutes par jour. Et cette constatation est valable partout, même dans les pays les plus branchés sur la Toile. En Suède, en Norvège et au Danemark, où plus de 1 habitant sur 5 était connecté à Internet en 1998, la durée d'écoute de la télévision a augmenté encore plus que la moyenne européenne. Visiblement, le temps passé à " surfer " sur son PC n'est pas pris sur le temps passé devant la télévision. " Pour l'instant, Internet et télévision sont sur deux écrans différents, explique Christophe Loisel, responsable du marketing TV chez IP France. Ce sont deux types de consommation qui n'ont rien à voir l'un avec l'autre, et qui se complètent. " Sur Internet, l'information pratique, les services, le dialogue. A la télévision, le divertissement, la détente, l'information généraliste. La télévision semble protégée grâce à une progression constante de l'équipement et de l'offre. Presque tous les foyers d'Europe de l'Ouest (98 %) ont une télévision couleur et 70 % d'entre eux ont un magnétoscope, contre 60 % seulement en 1994. Près de 1 ménage sur 2 (45 %) possède plus de 1 poste de télévision à la maison. Enfin, l'abonnement au câble ou au satellite n'est plus l'apanage de la seule Europe du Nord. En 1998, 46 % des foyers d'Europe occidentale étaient abonnés à un bouquet de chaînes diffusées par ces moyens, contre 37 % quatre ans plus tôt. Au total, seuls 27 millions de foyers du Vieux Continent ont accès à Internet (l'étude ne tient pas compte de l'utilisation d'Internet sur le lieu de travail), alors que les ménages qui regardent la télévision sont 150 millions. Cet effet de masse explique aussi que le développement d'Internet n'ait pas encore d'impact sur les recettes publicitaires des télévisions. Les plus gros annonceurs sur la Toile (Microsoft, IBM, Compaq...) sont " spécifiques " selon IP France. " La télévision reste le média le plus puissant, très, très loin devant les autres ", juge Marc Schorestène, directeur télévision d'IP France. Mais d'ici à 2005, les investissements publicitaires sur Internet devraient être multipliés par dix, pour atteindre 32 milliards de dollars. Les Echos : http://www.lesechos.fr/hightech/index.html
|
|
|
|
|
|
|
|
Une étude américaine nous annonce un monde sauvé du réchauffement climatique par la grâce du commerce en ligne. Le professeur Joseph Romm, du Center for Energy and Climate Solutions, a publié un rapport intitulé "L'économie Internet et le réchauffement de la planète : un scénario sur l'impact du e-commerce sur les sources d'énergie et l'environnement". Selon ce document, l'utilisation des ordinateurs et le commerce en ligne permettront, dans les années à venir, d'économiser l'énergie dans trois des principaux secteurs de l'économie : construction, fabrication, transport. D'ici 2007, le commerce en ligne pourrait permettre d'économiser 457 millions de mètres carrés de bureaux. A l'appui de ses prévisions optimistes, Joseph Romm affiche les chiffres de la quantité d'énergie consommée pour chaque dollar généré par l'activité économique. Selon les prévisions pour les chiffres de 1999, la croissance économique aura été de 13 % pour les trois dernières années avec une augmentation de la consommation d'énergie de seulement 2 %. Le rapport de Joseph Romm : www.cool-companies.org/ecom/pr.cfm
|
|
|
|
|
|
|
|
Les hostilités sont désormais ouvertes entre Palm, la petite société américaine devenue le numéro un mondial du marché des organiseurs électroniques, son concurrent britannique Psion, et le géant américain des logiciels Microsoft. Tant que Palm Computing, filiale de la société 3 COM, et Psion limitaient leurs ambitions à un marché de quelques centaines de milliers de cadres " branchés ", Microsoft n'avait aucune raison de s'inquiéter de l'émergence de nouveaux types d'ordinateurs portables qui snobaient son célèbre système d'exploitation Windows. Le succès de ces " assistants numériques personnels " - le Palm Pilot a été vendu à plus de cinq millions d'exemplaires depuis sa création en 1996 - avait déjà éveillé l'attention de Microsoft il y a quelques mois. Le géant de Seattle avait répliqué en développant un petit système d'exploitation baptisé " Windows CE ", qui reprenait sur un mode dégradé les principales caractéristiques de Windows 98 et Windows 95, qui équipent 95 % des ordinateurs personnels dans le monde. Cette version allégée de Windows a été adoptée par les groupes informatiques, clients traditionnels de Microsoft, comme Compaq, ou des groupes d'électronique grand public, comme Philips, qui ont lancé leurs propres organiseurs électroniques. Plus compliqué, plus gourmand en énergie, plus lourd à gérer, le standard Windows CE n'a pas, pour l'instant, convaincu les consommateurs. Fort de cette première victoire, Palm n'hésite pas à faire la leçon au colosse américain. " Microsoft n'a pas compris la philosophie de ce nouveau marché. Il a voulu faire des ordinateurs de poche, alors que les utilisateurs voulaient des assistants numériques personnels rapides, faciles à utiliser et toujours disponibles ", explique Laurence Clavère, directrice marketing chez Palm Computing. Le britannique Psion, dont les assistants numériques avec un petit clavier rencontrent moins de succès que les Palm Pilot qui se commandent de la pointe d'un stylet, a été le premier à sortir de son territoire en créant la société Symbian avec la plupart des constructeurs de téléphones portables, dont Nokia, Ericsson et Motorola. L'objectif de cette alliance est de développer un système d'exploitation et des logiciels pour la prochaine génération de téléphones portables qui permettra notamment de surfer sur Internet et de voir son correspondant. Palm a adopté de son côté une stratégie encore plus offensive, en décidant d'ouvrir complètement son standard à des tiers. Dès septembre, Palm passait à l'offensive dans la téléphonie mobile, en ralliant à sa cause l'un des principaux membres de Symbian, le finlandais Nokia. Les deux nouveaux alliés ont promis de continuer à collaborer avec Symbian, sur un minimum de fonctionnalités communes. Mais l'alliance du numéro un des organiseurs numériques et du numéro un mondial de la téléphonie mobile a eu surtout pour effet d'inquiéter Microsoft. En effet, non seulement le nombre de téléphones portables vendus chaque année dépasse déjà largement le nombre de PC, mais les experts estiment que dans deux ou trois ans, il y aura plus de téléphones portables connectés à Internet que d'ordinateurs reliés au réseau mondial. Ultime pied de nez à Microsoft, Palm développe aujourd'hui des accords de coopération avec les fabricants de serveurs pour permettre l'échange direct d'informations entre les gros serveurs des entreprises et les Palm Pilot des employés sans passer par les ordinateurs de bureau, alimentés par Windows, et devenus inutiles dans la stratégie de Palm. La réplique ne s'est pas fait attendre. Début décembre, Microsoft gagnait à sa cause le numéro trois mondial du téléphone mobile, Ericsson, pour mettre en commun leurs technologies dans la navigation Internet et créer une plate-forme pour la téléphonie mobile. Le Monde : http://www.lemonde.fr/article/0,2320,seq-2058-35629-QUO,00.html
|
|
|
|
|
James Dyson, l'inventeur de l'aspirateur sans sac portant son nom va lancer l'année prochaine un aspirateur-robot. Baptisé DC06, l'aspirateur assurera le nettoyage de la maison sans autre intervention humaine que d'appuyer sur le bouton de mise en marche. Trois ordinateurs assistés de 50 capteurs assureront le contrôle des opérations James Dyson affirme que le ménage exécuté par son aspirateur autonome est aussi bien fait que celui réalisé par un appareil conduit par un humain. Si la machine est capable de recharger ses batteries automatiquement, elle ne sait pas encore monter les marches. Pour vider les poussières, DC06 a besoin de l'assistance d'un être humain. La paresse a son prix : l'appareil sera commercialisé aux Etats-Unis, dans un premier temps, au tarif de 3.500 dollars. AFP : http://www.actualinfo.com/fr/multimedia/depeche.cfm?depeche_Index=121522&cat=69&...
|
|
|
|
|
|
|
|
Pour la première fois, un journal lance une édition consultable sur un téléphone portable (doté d'un écran) ou sur un ordinateur de poche. Depuis mardi, le quotidien suédois Svenska Dagbladet diffuse plusieurs rubriques de son édition papier, actualisées en continu : résumé des informations du jour, résultats sportifs, cours de la Bourse... Pour l'heure, le "télé-lecteur" voit s'afficher une version simplifiée des pages web du quotidien. Ce service, gratuit, devrait s'étoffer rapidement, et même s'étendre à la vidéo lorsque les vitesses de transmission le permettront. Ce type d'application, qui fait du mobile un "nouveau média", se multiplie. Hier, l'Agence France-Presse et le groupe finlandais Nokia ont signé un accord mondial de coopération pour développer des services d'information accessibles sur des téléphones portables à écran (de n'importe quel opérateur ou constructeur). La semaine dernière, la BBC concluait un accord similaire avec l'opérateur britannique Vodafone. Le point commun de ces trois projets s'appelle WAP, pour wireless application protocol. Tous exploitent un protocole de communication mis au point dès 1997 par le Français Alain Rossman (lire ci-dessous), pour faciliter la consultation du Web et du courrier électronique depuis les mobiles. Le WAP, nouvelle vague de la révolution numérique, s'est progressivement imposé de facto comme une norme, adoptée par la plupart des industriels (y compris Microsoft, qui, dans un premier temps, avait défendu sa propre technologie). Ne manquaient plus que les terminaux ad hoc pour que fleurissent ses applications, dont le "télé-journal" est la plus spectaculaire. Dès 2002, prédisent les analystes américains, plus de 100 millions de téléphones mobiles seront capables de se brancher sur l'Internet d'une façon ou d'une autre. En France, Itinéris (France Télécom) et SFR (Cegetel) s'apprêtent à lancer des bouquets de services aux normes WAP. Mais c'est la Scandinavie, qui connaît les plus forts taux d'équipement en portables de la planète, qui sera la première à expérimenter à grande échelle ces nouveaux services. Avec l'arrivée prochaine de terminaux hybrides à la fois portables et agenda électroniques (de type Palm Pilot), le multimédia nomade prendra vraiment toute sa dimension. Pour les médias, qui peinent encore à digérer la révolution du Web, cette nouvelle perspective est fascinante : leurs informations vont littéralement tomber dans la poche de leur public, à tout moment, en tout lieu. Libération : http://www.liberation.com/multi/actu/semaine991220/art991223.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Un nouveau procédé mis au point par le CNRS avec Agfa-Gevaert permet de décupler la sensibilité d'une émulsion photographique. La photo numérique avec ses deux millions de pixels pour une image au format 24x36 a encore beaucoup de chemin a faire pour rattraper l'émulsion argentique et ses 200 à 300 millions de pixels. Or l'écart entre les deux technologies de capture d'image vient encore de se creuser, grâce à un procédé mis au point par une équipe du CNRS -Jacqueline Belloni, Mona Treguer et Hynd Remita du laboratoire de physico-chimie des rayonnements (Université Paris-Sud à Orsay)- en collaboration avec la société Agfa-Gevaert N.G., qui permet de décupler la sensibilité d'une émulsion photographique. Dans une émulsion classique, à base de bromure d'argent (AgBr), l'image latente est formée par réduction des ions Ag+, en atome d'argent métal, sous l'action de la lumière. Or il faut former au moins trois atomes d'argent par cristal de bromure pour obtenir, au moment du développement, une particule noire visible à l'oeil. Cependant, des processus compétitifs s'opposent à ce que chaque photon produise un atome d'argent si bien que le rendement effectif des meilleures émulsions ne dépasse pas 0,20 atome par photon. Autrement dit, quinze photons sont nécessaires pour rendre développable un cristal de bromure. Le nouveau procédé inhibe ces processus antagonistes en dopant le cristal de bromure par du formiate d'argent. Résultat : non seulement chaque photon absorbé donne naissance à un atome d'argent, mais par le biais d'une réaction secondaire il se forme un deuxième atome d'argent. Le rendement est donc de deux atomes par photon soit dix fois plus que pour une émulsion classique. Cet accroissement du rendement peut être utilisé pour réduire la durée d'exposition ou pour travailler avec un flux de lumière plus faible ou encore pour augmenter la définition (le nombre de pixels par unité de surface) en réduisant la taille des cristaux de bromure d'argent. Usine nouvelle : http://www.usinenouvelle.com/
|
|
|
|
|
|
|
|
L'expansion de l'informatique dépend de notre capacité à réduire la taille des circuits électroniques. Cette réduction serait facilitée si l'on disposait de machines elles-mêmes toutes petites. Deux équipes de chimistes viennent ainsi de fabriquer des molécules qui se comportent comme des moteurs : elles convertissent de l'énergie en mouvement de rotation. T.R. Kelly et ses collègues du Boston College, dans le Massachusetts (Nature, 401, 150, 1999) ont synthétisé une molécule qui ressemble à une roue équipée d'un frein (1). Trois groupes d'atomes forment les rayons de la roue, qui est reliée à un quatrième groupe d'atomes, le frein, par une liaison qui sert d'essieu. A l'aide d'un réactif chimique, on débloque le frein en créant un pont de plusieurs atomes entre celui-ci et un rayon de la roue (2). Puis, ce pont se détend comme un ressort, faisant tourner la roue de 120° (3). Enfin, le pont est cassé par un second réactif (4). La nécessité d'apporter successivement deux réactifs empêche l'obtention d'un mouvement continu de la roue. En revanche, une autre molécule, fabriquée par N. Koumura et ses collègues des universités de Groningue, aux Pays-Bas, et de Tohoku, au Japon, pourrait tourner sur elle-même sans arrêt. Elle ressemble à deux roues identiques reliées par un essieu grippé (Nature, 401, 152, 1999). Lorsque l'une des roues tourne autour de l'essieu, la molécule passe par quatre configurations spatiales qui ont des énergies différentes. Un tour complet se décompose donc en quatre étapes : deux sont déclenchées par l'absorption d'un photon ultraviolet ; les deux autres sont des rotations spontanées de la molécule, qui se stabilise ainsi. Ces rotations spontanées étant irréversibles, la molécule tourne toujours dans le même sens. La Recherche : http://www.larecherche.fr/VIEW/325/03250113.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Une horloge atomique a vieilli un peu plus vite qu'une autre lors d'une expérience tentée récemment par le Laboratoire physique national, en Grande-Bretagne. Le but de l'opération consistait à démontrer de manière pratique une des conséquences de la théorie de la relativité d'Einstein (1916). Il existe en fait deux sortes de relativité : l'une dilate le temps, tandis que l'autre le contracte. Et cette fois, c'est la contraction qui l'a emporté. Pour les fins de la démonstration, le chercheur John Laverty a synchronisé deux horloges atomiques très précises - environ une seconde d'erreur en 300 000 ans. Puis, il a placé l'une d'elles dans un avion de fret qui a effectué sa liaison régulière entre l'Angleterre et Shanghai, en Chine. À son retour, l'horloge voyageuse avait 55 milliardièmes de seconde d'avance sur l'autre. Dans un sens, elle était un peu plus vieille. Le grand public connaît assez bien la relativité spéciale, l'idée selon laquelle plus on voyage à grande vitesse, plus le temps passe vite lui aussi. À 87 % de la vitesse de la lumière, un astronaute qui aurait voyagé 25 ans constaterait que 50 ans se sont écoulés depuis son départ. Alors, pourquoi le temps s'est-il allongé pour l'horloge de l'expérience ? Il s'agit en fait d'une conséquence de la relativité générale. Cette autre notion stipule que dans un champ gravitationnel plus faible, le temps s'écoule plus vite. Et c'est cette force qui l'a emporté lors de l'expérience. L'avion ne voyage pas assez vite pour que la relativité spéciale ait un effet important. Mais il vole assez haut pour que la gravité y soit un peu plus faible et que le temps s'y dilate un peu en raison de la relativité générale. Cette expérience apporte une nouvelle et éclatante confirmation expérimentale de la relativité générale. Cybersciences : http://www.cybersciences.com/Cyber/0.0/0_0_0.asp
|
|
|
|
|
|
|
|
Avec une idée d'une simplicité lumineuse, des chercheurs américains pensent pouvoir tripler, pas moins, le rendement de l'énergie solaire ! Au lieu de s'échiner à améliorer des matériaux photovoltaïques pour leur soutirer un pour-cent de rendement supplémentaire, les chercheurs d'Oak Ridge ont décidé de remettre à plat le concept technologique. L'idée vient d'une constatation très simple : dans les bâtiments équipés en capteurs solaires, une bonne part de l'énergie est captée péniblement pour être convertie de manière médiocre en énergie électrique, laquelle sert en grande partie... à amener de la lumière dans les locaux! Sachant que l'éclairage représente un tiers de l'électricité consommée dans les locaux commerciaux américains, pourquoi ne pas utiliser directement la lumière solaire ? Les ingénieurs d'Oak Ridge, un laboratoire fédéral géré par Lockheed Martin misent sur une approche hybride. La lumière solaire est récoltée sur le toit d'un édifice par des concentrateurs qui séparent la partie visible et la partie infrarouge du spectre. La première, au lieu d'être convertie, est directement acheminée dans les locaux à l'aide de fibres optiques de grand diamètre. La seconde est convertie par des cellules photovoltaïques. Cette méthode a un double avantage. D'une part, les cellules solaires pas trop chères ont généralement tendance à avoir un meilleur rendement dans l'IR que dans le visible. D'autre part, cette concentration permet d'optimiser plus facilement les cellules. Le projet, développé en collaboration avec l'organisation américaine des industriels du solaire, la SEAI, requiert évidemment une adaptation assez précise au bâtiment à équiper. Et pour des raisons de qualité d'illumination, la lumière extérieure amenée dans les locaux doit toujours être "complétée" d'un peu de lumière artificielle. Mais les chercheurs pensent pouvoir ainsi tripler le rendement de l'énergie solaire dans les locaux commerciaux, et ont déjà trouvé plusieurs partenaires pour développer la technologie, dont Duke Solar et Translight. Usine nouvelle : http://www.usinenouvelle.com/
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Il y a tout juste vingt ans, l'Europe faisait son entrée dans le club très fermé des puissances spatiales grâce au lancement réussi du vol inaugural de la fusée Ariane depuis la base de Kourou, en Guyane française, le 24 décembre 1979. Le lanceur Ariane 1 emportait dans sa coiffe la capsule technologique européenne CAT et du lest simulant une charge utile de type satellitaire. Mise au point par le Centre national d'études spatiales (CNES), par délégation de l'Agence spatiale européenne (ESA) et construite par Aérospatiale, Ariane était alors très décriée, considérée par bon nombre de spécialistes de l'espace comme un lanceur désuet, bien en retard comparée à la navette américaine. Après plusieurs reports, le premier tir depuis l'ensemble de lancement ELA 1 est fixé au 14 décembre. Mais au moment du décollage, Ariane reste clouée au sol : l'information erronée d'un capteur des moteurs arrête automatiquement les opérations. Le 23, une deuxième tentative est prévue mais la météo n'est pas de la partie. Le lendemain, la veille de Noël, après un nouvel incident technique et un problème avec les ordinateurs qui refusent de reprendre le compte à rebours final, Ariane V1 s'envole enfin, pour la première fois, dans le ciel équatorial et place en orbite sa capsule de 1,6 tonne. Vingt ans plus tard, presque jour pour jour, une Ariane 4, dans sa version la plus puissante, 44L, équipée de quatre propulseurs d'appoint à liquides (PAL), a réussi sa 125e mission mercredi et placé en orbite le plus grand satellite de télécommunication jamais déployé dans l'espace, Galaxy XI. Il s'agissait du 51e lancement consécutif réussi d'une Ariane 4. Après 117 succès et 8 échecs (Vols 2, 4, 15, 18, 36, 63, 70 et le vol inaugural d'Ariane 5), Arianespace, première société commerciale créée au monde en 1980, est leader sur le marché commercial des satellites en orbite de transfert géostationnaire, avec 50 % des parts. Le consortium européen a signé 206 contrats de lancement depuis sa création, placé en orbite 169 satellites, et le succès d'Ariane 5, le 10 décembre dernier, laisse entrevoir un bel avenir dans un marché de plusieurs centaines de millions de dollars en pleine expansion. A la suite de l'explosion de V501 et la réussite des deux autres tirs de qualification de la nouvelle fusée, les opérateurs internationaux de satellites attendaient ce 4e tir, premier vol commercial, pour obtenir des garanties de fiabilité. "Ariane 5 sera aussi fiable qu'Ariane 4", a assuré le PDG d'Arianespace, Jean-Marie Luton. "Nous prévoyons pour l'année 2000 quinze lancements, dont cinq Ariane 5", a expliqué à Reuters Jacques Rossignol, directeur général à Arianespace. "Ariane 5 étant capable de recevoir deux satellites dans chaque coiffe, on devrait placer une vingtaine de satellites en orbite l'année prochaine, ce qui serait un record", a-t-il ajouté. En 1999, Arianespace a décroché douze contrats de lancements sur les quinze proposés sur le marché, soit 80 %. Peu de contrats ont été signés mais Arianespace estime qu'une reprise devrait avoir lieu en l'an 2000. Le carnet de commande de la société compte à présent 40 satellites lourds à lancer, pour une valeur estimée à 3,2 milliards de dollars. Avec ce dernier succès 1999, Arianespace tourne la page d'une année placée sous le signe de la réussite. Elle a accompli avec succès dix tirs malgré un retard de calendrier de plusieurs mois, entre mars et août, dû à des problèmes de satellites. De plus, avec le succès de la première mission d'Ariane-5, Arianespace a offert à l'Europe, en 1999, le lanceur de satellite le plus puissant du monde et qui, d'ici 2005, pourra placer des charges de 11 à 12 tonnes sur orbite, soit la capacité de trois Ariane-4 en un seul tir. Brève résumée par @RTFlash Reuters : http://fr.news.yahoo.com/991223/45/7sei.html
|
|
|
|
|
|
|
|
En moins d'une décennie, le télescope spatial Hubble, qui vient d'être réparé par les astronautes de Discovery au terme d'une extraordinaire sortie dans l'espace de plus de huit heures, a fait faire un pas de géant à l'astronomie, révélant aux scientifiques et au grand public les merveilles insoupçonnées et troublantes de l'univers. Depuis son lancement en 1990 et la réparation trois ans plus tard de sa myopie congénitale due à un défaut optique, le télescope en orbite à plus de 600 km de la Terre a pris plus de 259.000 clichés, détaillant plus de 13.000 objets célestes, dont certains situés à plus de 11 milliards d'année-lumière (distance que parcourt la lumière en une année, soit environ 9.400 milliards de km). Avec son acuité sans rivale et sa capacité d'imagerie, Hubble a permis de jeter un regard neuf sur l'univers, apportant chaque jour son lot d'observations extraordinaires. "Hubble représente le programme scientifique le plus réussi de l'histoire", résume le directeur adjoint de la NASA pour la science de l'espace, Ed Weiler. Qu'on en juge: en moins d'une décennie, grâce à cet oeil magique, les astronomes ont pu déterminer l'âge de l'univers -- entre 12 et 14 milliards d'années -- et son taux d'expansion, observer le processus de formation des galaxies et la naissance des étoiles, assister à l'explosion de supernovae ou encore prouver l'existence des trous noirs. Avec son pouvoir de résolution exceptionnel, libéré des contraintes des turbulences et de la pollution lumineuse atmosphérique, Hubble a photographié tous les différents stades de la vie stellaire, des pouponnières d'étoiles aux vestiges d'étoiles mortes, en passant par les gigantesques amas de galaxies en collision. "Nous vivons dans un univers vivant et pour la première fois nous pouvons voir des événements cosmiques se dérouler sous nos yeux", s'exclame Anne Kinney, directrice chargée de la recherche astronomique des origines, au centre spatial Goddard de la NASA, à Greenbelt (Maryland). "Hubble a changé la manière dont nous pensons le monde", ajoute-t-elle. Que dire ainsi du remarquable spectacle des vestiges de l'explosion de la supernova 1987A, avec ses trois anneaux de matière expulsée, dans la galaxie voisine de notre Voie Lactée, le Grand Nuage de Magellan, à 169.000 années-lumière. Ou bien de ces fameux trous noirs, ces énormes masses de matière en effondrement gravitationnel, si denses que même la lumière ne peut s'en échapper. On avait théorisé leur existence mais, pour la première fois, Hubble a prouvé leur présence au centre des galaxies, en capturant en 1997 dans la galaxie NGC 4261 les images d'un énorme disque de matière (poussière, gaz et même étoiles) en train d'être aspiré. A quelque 2.100 années-lumière de la Terre, dans la constellation Ophiucus, les images de la nébuleuse planétaire M-29 nous ont offert la vision de ce qui arrivera à notre Soleil dans cinq milliards d'années, lorsqu'à la fin de sa vie, il se contractera, éjectant sa propre et magnifique nébuleuse de matière, avant de dépérir et de se transformer en naine blanche. Le télescope orbital a également jeté un regard nouveau sur le processus de formations des galaxies, en confirmant que les galaxies dites ultra-lumineuses dans l'infrarouge étaient engagées dans un violent ballet de collisions cosmiques incessantes. "L'astronomie nous renseigne sur notre passé et peut-être sur notre avenir : qui sommes-nous? Quelle est notre place dans l'univers ? Sommes-nous seuls ?", souligne Edward Weiler. "Hubble a détecté la présence de disques proto-planétaires et nous a montré que le processus de création de systèmes solaires est finalement assez répandu. En quelque sorte, conclut-il, il nous a remis à notre place dans l'univers". Une place toute petite et, pour l'instant, encore bien solitaire. AFP : http://www.actualinfo.com/fr/sciences/depeche.cfm?depeche_Index=121603&cat=14&f=...
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Sur l'Arctique, océan gelé du nord de la planète, on marche encore, mais pour combien de temps ? Trois études scientifiques parues en décembre tirent le signal d'alarme : la banquise arctique, immense pack de glace flottant de 14 millions de kilomètres carrés - mais moitié moindre à la fin de l'été -, fond sûrement et plutôt rapidement. Les deux premiers articles, parus dans l'hebdomadaire américain Science, analysent des données satellitaires accumulées entre 1978 et 1998. Le verdict est implacable : au cours de ces deux décennies, la banquise arctique a perdu en moyenne et par an la bagatelle de 37 000 kilomètres carrés, soit plus que la Belgique et le Luxembourg réunis (33 113 km²). Mais ce rétrécissement spatial se révèle faible si on le compare à l'amincissement que le pack arctique a subi au cours des dernières décennies. Pour mesurer l'épaisseur de la banquise, plus question de se servir des satellites qui manquent par trop de précision. Les chercheurs se sont donc tournés vers... les sous-marins. Jouant une sorte de remake de Vingt Mille Lieues sous les mers - mais cette fois sous les glaces -, une équipe de scientifiques américains a tiré profit des sonars qui équipent les submersibles à propulsion nucléaire de l'US Navy. De 1993 à cette année, le programme Scicex (acronyme de Scientific Ice Expeditions) a organisé six campagnes dans l'océan Arctique. Les résultats de trois d'entre elles viennent d'être publiés dans les Geophysical Research Letters, le journal de l'American Geophysical Union. L'océanographe Andrew Rothrock et deux de ses collègues de l'université de l'Etat de Washington, à Seattle, ont pu les comparer avec les relevés effectués au cours de plongées à caractère militaire accomplies entre 1958 et 1976. En une trentaine d'années, l'épaisseur moyenne de la banquise est tombée de 3,1 mètres à 1,8 mètre, soit une diminution de 40 %. L'homme est-il donc coupable ? Oui, répondent les auteurs d'une des études parues dans Science, qui ont soumis la diminution spatiale de la banquise à deux modèles climatologiques : il n'y aurait, selon eux, que 2 % de chances que la tendance observée depuis 1978 soit d'origine naturelle. En étendant l'analyse aux résultats recueillis sur le terrain depuis quarante-cinq ans, cette probabilité chute à un infime 0,1 % ! Jean-Claude Gascard, lui, reste plus prudent. " Le système climatique vit, il a des cycles que l'on commence seulement à comprendre un peu mieux, commente le chercheur français. Certains phénomènes ont une période de quelques années, d'autres sont décennaux ou pluridécennaux. Or plus la période est longue, plus les scientifiques sont gênés par les données. Actuellement, personne ne peut trancher sur les causes exactes du phénomène observé en Arctique. Cela dit, les activités humaines sont à un niveau tout à fait susceptible d'influencer la machine climat. " Le Monde : http://www.lemonde.fr/article/0,2320,seq-2077-35738-QUO,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Certaine cellules du foie, chez la souris, peuvent provenir de celles de la moelle osseuse, ce qui remet en cause certaines théories sur la différentiation des cellules, indique une étude à paraître dans le numéro de janvier de la revue Hepatology. Les chercheurs ont totalement détruit chez des souris femelles la moelle osseuse, la remplaçant par de la moelle extraite des os de mâles. Au cours des six mois qui ont suivi, des prélèvements ont montré que 2% des cellules matures du foie des femelles étaient dérivées de la moelle des mâles. La preuve en a été établie par la présence d'un chromosome Y, existant uniquement chez les mâles. Cette découverte a plusieurs implications, soulignent les auteurs de l'article, les Prs Neil Theise, de l'Université de New York, et Diane Krause, de l'Université de Yale (Massachusetts). D'abord, "la question a été posée de savoir s'il existait en fait une cellule souche du foie et ces travaux, comme d'autres précédemment, montrent bien qu'il y en a une", déclare le Pr Theise. Donc, "si nous pouvons l'isoler, nous aurons une cible pour la thérapie génique, avec une possibilité de réaliser des transplantations de cellules souches au lieu d'organes entiers", estime-t-il. De plus, selon lui, il "existerait alors la possibilité de faire des cultures de cellules pour créer un foie artificiel". Par ailleurs, il est communément admis que l'embryon se développe à partir de trois tissus différents, le foie et la moelle osseuse provenant de deux tissus différents. "Cette étude, avec d'autres, montre que ce n'est pas vrai", note encore le Pr Theise. Enfin, cette étude "indique qu'il existe, en permanence, un mouvement de cellules indifférenciées de la moelle osseuse vers le foie", écrit-il, ce qui pourrait "changer radicalement la manière de voir comment s'effectue la régénération du foie". AFP : http://www.actualinfo.com/fr/sciences/depeche.cfm?depeche_Index=121609&cat=14&f=...
|
|
|
|
|
|
|
|
Un prototype de robot déambulateur, guidé par des lasers et un sonar, a été mis au point par l'équipe du Dr Gerard Lacey du Trinity College à Dublin, pour assister les personnes qui ont des difficultés à marcher. Jouant le rôle d'yeux et de jambes supplémentaires, l'engin peut les avertir d'un risque de collision, de la présence d'un obstacle, du tournant d'un couloir ou, simplement, leur indique où se trouvent les portes. Le robot, surnommé PAM, selon l'hebdomadaire britannique New Scientist, est équipé d'un système laser de détection des obstacles, complété d'un sonar, du type des radars sous-marins, qui permet de repérer d'autres embûches comme une vitre ou une table. Contrairement au déambulateur habituel, l'appareil est équipé de roues, non motorisées, qui servent seulement à se guider. Lorsque le prototype fonctionne sur le mode manuel, il peut être utilisé comme un déambulateur ordinaire ; mais il est aussi doté d'une alerte vocale qui signale un obstacle et d'un mode assisté le robot prend alors la direction des opérations pour naviguer sans danger. Sept mille accidents se produisent chaque année en Grande-Bretagne avec les déambulateurs classiques.. ce prototype pourrait apporter une solution à ce problème. Sciences&Avenir : http://quotidien.sciencesetavenir.com/sci_19991223.OBS0667.html
|
|
|
|
|
|
|
|
Une étude menée par le CNRS a levé le voile sur une polémique qui date... L'équipe, réunie autour du directeur de recherche émérite Robert Naquet, s'est donné pour but de répondre à plusieurs questions. Faut-il interdire les jeux pour les sujets épileptiques ? Les rayonnements de la télévision sont-il la cause principale ? La distance est-elle influente ? Y-a-t-il une différence entre les écrans de 50Hz et ceux de 100Hz ? Enfin, certains jeux sont-ils plus dangereux que d'autres ? Cinq centres se sont penchés sur la question en étudiant une population de 115 patients âgés de 7 à 30 ans. Résultats : Si vous êtes épileptique de type non-photosensible, vous ne risquez pas de "manifestations électroencéphalographiques de type épileptique" comme disent les savants. Toutefois, une crise due à la fatigue après une longue exposition à la télévision n'est pas entièrement exclue, alors prudence... Pour les autres, dits photosensibles, pas de risque avec les jeux vidéos portables mais attention à la télévision! C'est la fréquence de balayage de l'écran qui serait un des principaux facteurs déclenchant des crises. Même si les écrans à 100Hz semblent avoir un effet "protecteur" contre la survenue de manifestations épileptiques, les écrans 50Hz, eux, n'ont manifestement pas cette qualité. Sachez enfin que le rapprochement vers l'écran accroît les risques de crises. Psycho-net : http://www.psycho-net.com/
|
|
|
|
|
|
|
|
Par rapport aux personnes normotendues, les personnes qui ont une hypertension artérielle ont un plus grand risque d'avoir une altération de leurs capacités mentales et intellectuelles, suggère une étude française réalisée par des médecins épidémiologistes. La prise d'un traitement antihypertenseur permettrait de réduire ce risque de détérioration des fonctions cognitives. Cette étude d'observation sur quatre ans a porté sur 1.373 personnes vivant à Nantes, âgées de 59 à 71 ans. Les chiffres tensionnels et le statut cognitif des participants ont été évalués à 2 ans, puis à 4 ans après inclusion. Parue dans la revue Neurology, ces travaux montrent, qu'en 4 ans, 21,7 % des sujets hypertendus non traités ont eu un déclin cognitif sévère, défini par une chute de 4 points ou plus au test MMS (Mini Mental Status examination). Parmi les sujets dont le traitement antihypertenseur ne ramenait pas les chiffres tensionnels à la normale, 12,5 % ont eu un déclin cognitif sévère, ils n'étaient en revanche que 7,8 % parmi ceux dont la tension artérielle était revenue à la normale. " Ces résultats posent la question de la relation entre démence et facteurs vasculaires, un sujet d'une très grande importance en termes de santé publique. En effet, si toutes les démences étaient au moins en partie liées à des facteurs vasculaires, dont l'HTA, il serait possible de réduire leur incidence ou retarder leur survenue par des mesures préventives qui existent déjà ", souligne le Dr Christophe Tzourio, neurologue et chercheur Inserm à l'Hôpital Pitié-Salpétrière. Cette question est d'autant plus cruciale que, selon certaines projections, le nombre de patients atteints de la maladie d'Alzheimer (70 % des pathologies démentielles), qui se situe aujourd'hui en France à près de 300.000, devrait au moins doubler d'ici 2020. Certains citent même le chiffre d'un million de déments en France dans vingt ans. Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=207
|
|
|
|
|
|
|
|
Des chercheurs américains essaient, sur des rats, un vaccin expérimental destiné à combattre les effets d'accoutumance de la nicotine. Les résultats sont prometteurs et les tests sur l'homme pourraient débuter d'ici deux ans. Mais même si ce vaccin se révèle efficace et sans effets secondaires, ''il ne constituera pas une baguette magique'' pour arrêter de fumer, prévient le Dr Paul Pentel du Centre médical de Minneapolis, qui mène cette étude financée par l'Institut national de lutte contre les abus de drogues. ''Dans le cas d'une vaccination contre une maladie, vous avez une série d'immunisations, et vous êtes protégés à vie. Nous ne nous attendons pas à ce type d'effets pour la nicotine. On ne sait pas combien durera la protection'', explique-t-il en précisant que le vaccin serait proposé dans le cadre d'un traitement plus général pour arrêter de fumer. Ce vaccin est conçu pour empêcher les molécules de nicotine d'atteindre le cerveau: le taux de cet alcaloïde dans le cerveau des rats vaccinés a chuté de 64 % par rapport aux rongeurs qui n'ont pas reçu d'injection. Dans les deux cas, on a administré aux rats l'équivalent de deux cigarettes. Et la prise de nicotine chez les rats vaccinés ne s'est pas accompagnée d'élévation de la tension artérielle, ni d'effets stimulants. ''Pour le moment, ce sont des travaux exploratoires sur des animaux. Nous voulons faire de nouvelles études pour vérifier son efficacité, son innocuité, avant d'envisager de faire des essais cliniques sur l'homme. Nous l'espérons, les premiers résultats sont encourageants'', conclut-il. Brève rédigée par @RTFlash Washington Post : http://washingtonpost.com/wp-srv/health/front.htm
|
|
|
|
|
|
|
|
L'équivalent d'une cornée humaine vient d'être construite par May Griffith et ses collègues de l'université d'Ottawa (Canada). Associés à l'université de Tennessee college of medecine de Memphis (Etats-Unis), les chercheurs sont arrivés à agencer les trois principales couches de cellules qui forment la cornée de manière à ce qu'elles soient fonctionnelles. Ce modèle in vitro permet d'ores et déjà de tester la toxicité et l'efficacité de médicaments. La cornée comprend en externe l'épithélium squameux stratifié puis le stroma, avec les kératocytes, et enfin les cellules endothéliales spécialisées. De part sa structure, la cornée sert de barrière vis-à-vis de l'environnement extérieur et est un élément majeur dans le trajet optique de l'oeil. Afin de reproduire ses trois couches, les chercheurs ont immortalisé des cellules humaines. D'après les résultats publiés dans Science, le 10 décembre dernier, les cornées résultantes de ces manipulations "miment les fonctions clés physiques et physiologiques de leurs homologues naturelles."Les cellules des trois couches ont tout d'abord été choisies pour la similarité de leurs fonctions morphologiques, biochimiques et électrophysiologiques à celles retrouvées dans la nature. Après ce tri et la construction des tissus, les chercheurs ont testé la réponse physiologique de cette nouvelle génération de cornées. Le gonflement du stroma, l'expression des gènes et la transparence du tissu sont autant de critères qui ont été satisfaits par rapport à la cornée naturelle. La réussite de ces tests ravit les chercheurs. "Les applications de ces modèles sont immédiates en ce qui concerne l'évaluation de nouveaux médicaments et représentent une alternative aux expérimentations animales," soulignent-ils. Ces cornées peuvent également être utilisées en biochimie, "par exemple pour étudier les interactions dans la matrice cellulaire lors de la cicatrisation des blessures."Mais cette technique serait surtout appréciable dans le cadre de greffes. A l'heure actuelle, la cornée est une excellente candidate à la transplantation car non vascularisée et immunologiquement privilégiée. Mais dans la mesure où il y a toujours aussi peu de donneurs, de nombreux scientifiques ont tenté de fabriquer des cornées, ou des parties de cornée, artificielles in vitro. Or, jusqu'à présent, toutes ces reconstructions ne réussissaient pas à imiter les caractéristiques physiologiques et anatomiques de la cornée humaine. "Cette technologie nouvelle pourrait donc, à plus long terme, permettre de reproduire des tissus à l'image de leur équivalent humain naturel." Les chercheurs espèrent que cela rendra "faisables implants et transplants." Info-Sciences : http://www.infoscience.fr/index.php3
|
|
|
|
|
|
|
|
Après des siècles de lamentations sur la vieillesse ennemie, la recherche progresse enfin dans la compréhension des mécanismes de l'âge, pour parvenir peut-être, un jour, à en freiner le cours. L'une des composantes est incontestablement génétique : les chromosomes possèdent à leur extrémité une séquence appelée "télomère", dont la longueur diminue chaque fois que la cellule se divise. Au fil des années, cette zone devient de plus en plus courte, et la cellule ne peut plus se reproduire. Comme si le télomère était le siège d'une énergie vitale qui s'épuise. On observe aussi que l'oxygène détériore les cellules, qui produisent alors, par oxydation, des radicaux libres, des molécules toxiques pour les cellules. Il suffirait d'absorber un oligoélément antioxydant, le sélénium, pour résister à cette dégradation et rallonger sa durée de vie d'une dizaine d'années. 44 % des médecins américains et la totalité des chercheurs qui travaillent sur les radicaux libres y croient dur comme fer et suivent un tel régime. En France, le Pr Beaulieu mise plutôt sur la DHEA, une hormone produite par les glandes surrénales. D'autres chercheurs conseillent de manger moins sucré (pour éviter la production d'insuline), moins calorique et d'enrichir ses repas en vitamines et en minéraux (ça marche sur les rats). Et, pour les femmes, la meilleure cure de jouvence serait la maternité tardive. L'Express : http://www.lexpress.fr/editorial/zooms/h2000/ouverture.htm
|
|
|
|
|
|
|
|
Des embryons de singes rhésus génétiquement modifiés et viables ont été obtenus pour la première fois, ce qui ouvre la porte à la réalisation de primates conçus pour étudier les causes de certaines maladies et leur traitement chez l'homme. Des chercheurs de l'Université des Sciences de la Santé de l'Orégon ont réussi à introduire des éléments d'acide désoxyrinonucléique (ADN) de méduses dans des oeufs de singe en plaçant des gènes de cet animal marin sur des spermatozoïdes de primate. Deux jours après la fertilisation de l'ovule, près de la moitié des embryons de singe irradiaient une lumière verte produite par une protéine exprimée par les gènes de la méduse. Sept de ces embryons ont été ensuite implantés chez des femelles rhésus, ce qui a donné naissance à un petit, George, parfaitement normal. En l'état actuel des recherches, précisent les chercheurs, on ne sait pas si George dispose toujours des caractères génétiques qui lui ont été insérés artificiellement. Jusqu'à présent, de telles expériences transgéniques ont été réalisées avec des souris pour étudier des affections telles que la maladie d'Alzheimer, la muscoviscidose, ou le diabète. Toutefois, ces rongeurs ne sont pas des modèles totalement satisfaisants pour reproduire les maladies touchant l'homme, d'où l'importance de recherches sur les singes. Rappelant enfin qu'un malade soigné expérimentalement à l'aide d'une thérapie génique était mort récemment, l'un des chercheurs, le Pr Gerald Schatten, souligne que les primates non humains constituent la meilleure solution pour évaluer les avantages et les risques de ces nouveaux traitements. Brève rédigée par @RTFlash New York Times : http://www.nytimes.com/library/national/science/122399sci-genes-insert.html
|
|
|
|
|
|
|
|
Les scientifiques américains ont découvert un nouveau gène qui contrôle la croissance des plantes. Le gène commande la synthèse d'une protéine qui décompose une hormone stéroïde dans les tiges des plantes. Les chercheurs de l'institut d'études biologiques de San Diego ont ainsi pu utiliser cette découverte pour produire des versions " naines " de leurs plantes familières de laboratoire. Un plant de tabac qui atteint normalement environ deux mètres a été modifié pour atteindre seulement 30 centimètres à maturité. Le professeur Chory et ses collègues ont trouvé le gène BAS-1 en recherchant les gènes qui renverseraient les effets d'une mutation dans un autre gène pour que cela mène aux tiges excessivement longues. Baptisé BAS-1 le gène découvert ne contrôle que la croissance des tiges de plantes mais cette étape est très importante pour la compréhension complète du mécanisme global qui régule la croissance des plantes. Les chercheurs vont à présent essayer d'identifier d'autres gènes qui contrôlent la croissance des feuilles et des pétales. Brève rédigée par @RTFlash BBC News : http://news.bbc.co.uk/hi/english/sci/tech/newsid_574000/574184.stm
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Un élément de l'acide désoxyribonucléique (ADN), constituant essentiel des chromosomes, que l'on croyait transmis uniquement par la mère, le serait également par le père. Cette découverte, soulignent les chercheurs, pourrait remettre en question notre datation des événements de la préhistoire de l'homme, dont l'âge de notre plus ancienne ancêtre commune, "Eve", et la migration de l'Homo sapiens en Asie et en Europe. Un des dogmes de la théorie de l'évolution est que certains gènes, qui existent dans la mitochondrie, partie de la cellule qui joue le rôle capital dans sa respiration, sont uniquement hérités de la mère et ne se mélangent pas à ceux du père pendant la reproduction. Ceci permettait aux scientifiques de dater l'origine des êtres humains et d'autres organismes en analysant l'évolution de leurs gènes mitochondriaux. Or des chercheurs de l'Institut sur la biologie de la cellule, de l'animal et de l'homme (ICAPB) d'Edinburgh (Ecosse), sous la conduite du Pr Philip Awadalla, ont découvert sur l'homme et le chimpanzé que cette théorie était fausse. "Beaucoup de conclusions sur la façon et le rythme de l'évolution humaine ont été tirées" de cette idée que seule la mère transmettait ces gènes, soulignent les auteurs de l'article. "Ces conclusions doivent maintenant être revues", assurent-ils. AFP : http://www.actualinfo.com/fr/sciences/depeche.cfm?depeche_Index=124598&cat=14&f=...
|
|
|
|
|
|
|
|
Résumant les opinions des économistes sur les cycles de hausse et de baisse qui rythmeraient la vie économique, Nicolaï Dmitrievitch Kondratiev écrivait à peu près en 1928 : " Il y a ceux qui y croient, il y a ceux qui n'y croient pas et il y a ceux qui ont adopté la position... intermédiaire. " Citant cette boutade en introduction de son étude sur la problématique des mouvements de longue durée, Michel Morineau ajoutait qu'il n'était pas exagéré de dire que la situation était en gros aujourd'hui identique. Certes, le retour de la longue dépression, sensible depuis les années 70, a redonné du grain à moudre à tous ceux qui, au cours des arrogantes Trente Glorieuses, avaient subi les sarcasmes ou l'indifférence des économistes qui pensaient avoir définitivement remisé au musée l'étude des fluctuations économiques. Reste que les efforts conjugués de la science économique et de l'histoire économique pour traquer le temps long du monde posent toujours autant de problèmes méthodologiques. S'il est en effet relativement facile de repérer les crises, ces accidents agricoles, industriels, boursiers ou monétaires clairement datés et mesurables qui jettent le trouble dans les esprits et compromettent la sérénité de ceux qui pensent l'économie comme une science de l'équilibre, il est bien plus aléatoire de repérer ces fluctuations longues, ces trends séculaires qui, par essence, échappent à la perception des populations qui les vivent. " Sept années de vaches grasses, puis sept années de vaches maigres ", avait pourtant dit Joseph au pharaon, fort de l'expérience des marchands du pays de Canaan qui l'avaient amené en Egypte, il y a quatre mille ans. Un rythme des affaires si nettement marqué que les Hébreux l'avaient consigné dans la loi qu'ils se donnèrent, après l'Exode, pour prévenir le retour des crises périodiques, prescrivant tous les sept ans l'année sabbatique, un moratoire général obligeant les propriétaires à vivre sur leurs réserves pour les mettre à l'abri d'une mévente qui aurait fait que le prix de la récolte n'aurait pas couvert les frais de l'exploitation." Je vous enverrai ma bénédiction la sixième année et elle produira des fruits pour trois ans ", peut-on lire dans le Lévitique (XXV, 20 à 22). " Vous sèmerez la huitième année et vous mangerez de l'ancienne récolte ; jusqu'à la récolte de la neuvième année, vous mangerez de l'ancienne. " Le Lévitique marque une autre cadence dans l'économie : celle de cinquante ans. Comme s'il était admis qu'on doit se trouver tous les cinquante ans en présence d'une dépression plus accusée, après la quarante-neuvième année, qui est sabbatique, donc sans frais de culture, il est prescrit de sanctifier la cinquantième, l'année jubilaire, en s'abstenant de semer, moissonner et vendanger. Au-delà de la perception d'un rythme essentiellement agricole et de l'aspect symbolique des chiffres de ce calendrier qui correspondent toutefois, pour les premiers, aux cycles Juglar, du nom de celui qui les a étudiés au XIXe siècle, et pour les seconds aux fameux cycles Kondratiev, c'est bien la réalité d'une alternance entre croissance et dépression, années " heureuses " et années " piteuses ", qui reste au coeur de nos préoccupations. La plupart des auteurs qui se sont penchés sur ces problèmes sont d'accord pour faire du mouvement des prix l'un des meilleurs indicateurs de cette climatologie économique. En effet, contrairement à l'idée aujourd'hui trop admise selon laquelle la stabilité des prix est synonyme de bonne santé et l'inflation synonyme de mal épouvantable, force est plutôt de constater que, en longue durée, les périodes de hausse des prix sont simultanément marquées par un progrès de l'activité et des revenus. Siècles d'or que ces siècles de hausse des prix qui se sont étendus de 1250 à 1350, puis de 1510 à 1630, et encore de 1730 à 1817, et enfin, sauf au cours des années 1930, de 1913 aux années 1990. Siècles d'airain en revanche que ces siècles de stabilité ou de baisse durabledeprixquise sont étendus de 1350 à 1450, tout au long du siècle de Louis XIV et du XIXe siècle. Au-delà, en effet, des fièvres inflationnistes qui ont correspondu soit à des accidents météorologiques soit à des émissions exagérées de monnaie, comme à l'époque de John Law (lire page 59), de la Révolution française ou dans la première moitié des années 1920 dans l'Allemagne de Weimar, une inflation longue et limitée a des effets sociaux plutôt positifs. Elle soulage les endettés, encourage l'investissement, excite l'esprit d'entreprise et réchauffe les marchés, alors qu'au contraire la stabilité ou la baisse des prix ravit les créanciers, pénalise les jeunes qui ont besoin d'emprunter et décourage l'anticipation spéculative à la hausse qui, malgré toutes les critiques, reste l'un des meilleurs levains de la création d'entreprise. Sans doute faudrait-il aussi prendre en compte les flux de production et d'échange, bien mal connus pour les périodes anciennes, les données démographiques, sans doute fondamentales, ou les éléments climatiques, si bien mis en valeur par Emmanuel Le Roy Ladurie (3). Reste qu'il est illusoire de compter sur l'empilement des données et sur le raffinement des méthodes statistiques pour mesurer et dater avec précision ces fluctuations longues qui sont la frange obscure des mouvements de l'économie. Ou bien les fluctuations longues existent et les procédés les plus simples doivent les faire apparaître, ou elles n'existent pas et, dans ce cas, les procédés mathématiques les plus sophistiqués risquent d'en faire apparaître, rappelait Jean Bouvier au VIIIe colloque international d'histoire économique qui les avait mis à son programme à Budapest en 1982 . Force est seulement de constater, et c'est bien là l'essentiel, que la vie des hommes semble osciller au gré de mouvements périodiques infiniment recommencés, alors même que nous ne sommes capables ni de les comprendre ni de les contrecarrer. " Peu perceptible dans l'instant mais allant son petit bonhomme de chemin, toujours dans la même direction, le trend est un processus cumulatif, écrivait Fernand Braudel. Il s'ajoute à lui-même ; tout se passe comme s'il soulevait peu à peu la masse des prix et des activités économiques jusqu'au moment où, dans le sens inverse, avec la même obstination, il se met à travailler à leur baisse générale, imperceptible, lente, mais prolongée ; siècle après siècle, il s'avère un acteur important. "En mille ans d'histoire, on distinguerait ainsi quatre phases de croissance marquées de " vaches grasses ". La première, amorcée autour de l'an 1000, mais plus probablement au début du XIIe siècle, s'achèverait vers 1350, quand la peste noire ajoute ses funestes effets à la forte décélération de la croissance sensible aux alentours de 1300. La deuxième, ébauchée au milieu du XVe siècle, et plus sûrement au lendemain de la découverte du Nouveau Monde, à la fin du XVe, se terminerait vers 1600-1650. La troisième, amorcée vers 1730-1740, se briserait au lendemain des guerres de la Révolution et de l'Empire. La quatrième, enfin, amorcée à la " Belle Epoque " de la fin du XIXe siècle, s'achèverait... à la fin de notre siècle, quand le retour des prix bas et des taux d'intérêt élevés annonce des lendemains plus difficiles. Quatre phases de croissance, donc, mais aussi trois phases " dépressives " de " vaches maigres ". Entre 1300-1350 et 1450-1500, quand l'inclémence du ciel, la multiplication des guerres et le manque de terres grippent le moteur de l'économie occidentale et excitent les conflits entre les " menus " et les " gros ", les gens du " populaire " et les hommes " honorables ". Entre 1600-1650 et 1730-1740, au sombre XVIIe siècle, quand se dérègle le système atlantique et que la baisse des prix se conjugue avec l'accroissement de l'impôt. Au XIXe, paradoxalement, quand la révolution industrielle travaille au forceps une société largement hostile et fait croire à tous ceux qui observent alors l'essor du capitalisme, de Marx à Ricardo, que s'accroîtront l'insécurité de l'existence et la paupérisation. Depuis les années 1970-1990, peut-être, quand les effets conjugués de la mondialisation et de l'impératif financier mettent à mal les acquis de la société de consommation et lézardent les digues de l'Etat providence. Est-ce à dire que la tyrannie des mouvements longs, s'ils existent, doit nous inciter à la paresse ou à la désespérance ? Ce serait oublier que même si, à long terme, " nous serons tous morts ", pour reprendre la boutade de John Maynard Keynes, il reste dans le court terme, qui est le vrai temps de l'homme, de multiples possibilités de s'adapter au climat, et que, surtout, les périodes dépressives sont sans doute aussi celles de foisonnement culturel, comme si les ressorts de la pensée et de la création se tendaient alors pour faire oublier les humeurs capricieuses de l'économie. L'Expansion (voir dossier complet) : http://www.lexpansion.com/
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Le magazine Science recense les principales avancées scientifiques qui font de l'année 1999 un cru particulièrement intéressant et prometteur ! -* En tête de liste la course au génome ouvre la voie à un torrent de données: la découverte du génome de plusieurs microbes, deux cartes de celui de la malaria, la première séquence d'un chromosome humain... -* La première carte moléculaire complète d'un ribosome (usine à fabrication des protéines cellulaires). -* La création, par des scientifiques, d'un nouveau genre de gaz (révélant à nouveau le monde étrange de la matière quantique) devrait les aider à sonder la nature de la matière et construire la prochaine génération d'horloges et de lasers. -* La datation de démarrage de la vie repoussé de quelques milliards d'années grâce à la découverte de cellules eukaryotiques en Australie signant la présence d'un monde bien plus ancien que ne le pensaient les scientifiques. -* Le mystère des explosions cosmiques enfin dévoilé, elles seraient dues à l'effondrement d'étoiles massives ou de supernovas dont les détails devraient être étudiés par les 2 satellites de la Nasa prévus pour être lancés en janvier 2000 et en 2003... -* La confirmation par les chercheurs, cette année, de l'hypothèse d'un univers plat. -* Une meilleure compréhension scientifique des phénomènes de mémorisation humaine par la visualisation concrète des activités moléculaires du cerveau. -* La découverte d'une trentaine de nouvelles planètes hors de notre système solaire pouvant révéler des mondes où eau et vie pourraient exister. -* L'apprivoisement de la lumière par des cristaux photophoniques afin de dompter la puissance de celle-ci et de l'intégrer aux réseaux de communications à haute vitesse, aux lasers et aux ordinateurs..
|
|
|
|
|
|
|
|
Le XXe siècle a été résolument scientifique. Une manne de découvertes et d'événements ont bouleversé nos sociétés au cours des 100 dernières années. Notre " appel à tous " lancé cet automne posait donc un beau défi : lequel de ces événements ou découvertes peut-il être considéré comme le plus important et le plus remarquable ? Nous avons reçu de nombreuses réponses. Si le coeur de nos lecteurs balance entre l'ordinateur, la conquête de la Lune, l'ADN et le boum des télécommunications, le grand vainqueur est celui sans lequel tout cela eut été impossible : le transistor. Le transistor ? Il a pris une place prépondérante dans nos vies, souligne Sylvain Nadeau, de Vaudreuil-Dorion. " Nous passons nos journées avec lui, écrit-il. Le matin, dans la cuisine, il fait fonctionner la cafetière. Dans l'auto, il contrôle l'injection de l'essence, la radio et les freins ABS. Au travail, il se retrouve évidemment dans nos ordinateurs, le micro-ondes et le système de climatisation. De retour à la maison, on le retrouve dans la télévision, le vidéo et le système de son. " Bref, il a transformé notre quotidien. " Pratiquement tout ce qui nous entoure et dont on se sert régulièrement possède des transistors ", ajoute un autre lecteur. " Et que serait la science en général sans celui-ci ? ", se demande Serge Mercier, de Montréal. Le transistor, rappelle-t-il, est une composante de plusieurs appareils de recherche, depuis le microscope électronique jusqu'aux nouvelles technologies de télécommunications. " Il laisse tout le loisir aux scientifiques de se pencher sur les grandes questions ", signale Dominic Delambre. Ce fameux transistor a été surnommé par un de ses inventeurs la cellule nerveuse du monde moderne. Il en existerait aujourd'hui près de 200 millions de milliards d'exemplaires dans le monde, comme le rappelait l'article que nous avons publié à son sujet. Inventé en 1947, le prototype était d'une simplicité désarmante. Il était constitué d'un petit bout de plastique triangulaire pressé contre un bloc de germanium et branché à trois électrodes, le tout maintenu par un trombone et placé dans un morceau de plexiglas. Ce bidule, qui peut amplifier les signaux électriques plus efficacement que les gros tubes à vide employés jusqu'alors, vaudra le prix Nobel de physique à ses bricoleurs, John Bardeen, William B. Schockley et Walter H. Brattain. Pour ceux qui l'ont vu naître et évoluer, le transistor éveille une certaine nostalgie. Il a rapidement été commercialisé par les fabricants de radio. Philippe Driesmans de Montréal s'en souvient : " Je me rappelle de ma première radio transistor, elle tenait dans la paume de ma main d'enfant de huit ans, elle ne me quittait jamais, même à l'école et dans mon lit. On a dû me la confisquer plusieurs fois. " La suite des progrès scientifiques était inscrite dans cet objet, note-t-il. Grâce à lui, " la course à la miniaturisation pouvait prendre son essor. Sans lui, la Lune et l'espace n'auraient jamais été accessibles, la médecine d'aujourd'hui serait impossible. Il aide même des coeurs à battre plus régulièrement ". Plusieurs lecteurs ont plutôt choisi l'ordinateur comme découverte du siècle. Par exemple, Éric Paquette, un étudiant en informatique de l'Université de Montréal, note que cette invention a permis de libérer l'homme d'un travail lassant tout en lui permettant d'accomplir de grands exploits, comme prévoir le temps qu'il fera ou marcher sur la Lune. Un événement comparable à la découverte de l'Amérique, signale Denis Carrier, de Notre-Dame-du-Nord au Témiscamingue. Cela dit, on comprend bien que, sans transistor, il ne pouvait y avoir d'ordinateur, mais, sans connaissance de l'électron, il ne pouvait y avoir de transistor. Jean-Charles Poirier, de Frelighsburg, croit donc que la maîtrise de cette composante fondamentale de la matière ne peut être ignorée lorsqu'il s'agit d'établir un bilan scientifique de ce siècle. " La grande majorité des innovations des 100 dernières années découlent de la facilité progressive avec laquelle l'homme a réussi à contrôler et à utiliser la force de l'électron dans l'industrie, les communications, la médecine et jusque dans la vie privée. Le XXe siècle devrait être nommé le siècle de l'électron!
|
|
|
|
|
|
|
|
Cette chronologie des grandes avancées scientifiques et techniques intervenue depuis 10 siècles en Occident permet de mesurer de manière saisissante l'extraordinaire aventure humaine qu'a constituée la conquête de la connaissance scientifique tout au long de ce 2ème millénaire qui s'achève. Cinq enseignements peuvent être tirés de cette histoire des sciences : -* La conquête d'une connaissance objective commence bien avant le début du XVIIème siècle, qui marque la naissance de la science moderne et de la rationalisation du monde, au sens cartésien du terme. Le Moyen-Age et la Renaissance, en redécouvrant l'héritage gréco-romain, enrichi par la civilisation arabe et Byzance, sont le théâtre, au XIème siècle puis au XVème siècle de deux mutations techno-économiques majeures qui permettront l'avènement de ce que Braudel a appelé la civilisation matérielle. -* Même s'il ne survient pas ex-nihilo le progrès scientifique et technique connaît cependant, à partir de la fin du XVIIIème siècle une accélération fulgurante, et sans précédent dans l'histoire de l'Humanité. Un citoyen romain transporté à l'époque de Louis XVI n'aurait pas trouvé de changements fondamentaux dans la vie quotidienne. Il aurait remarqué qu'on se déplaçait toujours à pied ou à cheval, qu'on se chauffait toujours au bois et que l'eau, le vent, la traction animale et le muscle restaient les seules sources d'énergie utilisées dans l'ensemble des activités humaines. Il aurait enfin constaté que l'envoi de lettres et de messages écrits sur un support physique restait le seul moyen de transmettre une information à distance. En revanche, un contemporain de Louis XVI transporté à notre époque serait totalement dépassé par l'invasion de la technologie dans les actes les plus simples de la vie quotidienne. A cet égard un chiffre doit être retenu : les trois-quarts des découvertes et inventions majeures de ce 2ème millénaire ont été réalisées au cours des deux dernières siècles. -* Il faut se garder de réduire l'aventure scientifique à sa seule dimension technique et industrielle, même si elle est évidemment la plus visible. Le très haut niveau d'efficacité technique auquel nous sommes parvenus en deux siècles n'a pu être atteint qu'en s'appuyant sur des avancées conceptuelles et théoriques majeures (des ruptures paradigmatiques comme le souligne Kuhn) même si cette relation causale entre théorie et innovation technique n'est ni automatique ni univoque. Nous ne devons pas nous laisser aveugler par la dimension technicienne prédominante prise par la science au cours du XXème siècle et nous rappeler que la recherche fondamentale la plus abstraite finit toujours par être génératrice d'innovations de rupture qui viendront à leur tour rétroagir sur la compréhension de leurs cadres théoriques. A cet égard les perspectives d'application de la mécanique quantique (née en 1900 avec Max Planck) en informatique nous rappellent que la production de concepts radicalement nouveaux reste le moteur du progrès scientifique et technique. -* Il faut distinguer, pour bien comprendre l'évolution des sciences et des techniques, 3 niveaux distincts qui entretiennent entre eux des relations changeantes et complexes : les avancées théoriques fondamentales qui modifient notre conception du monde et de la connaissance, les découvertes et les inventions de systèmes et dispositifs techniques nouveaux. -* Depuis le début du XIXème siècle, le laps de temps qui s'écoule entre les inventions et découvertes et leur large diffusion dans la société ne cesse de se réduire. Il y a donc de plus en plus d'innovations technologiques mais, et cela est encore plus important, ces innovations se diffusent de plus en plus vite dans le système socio-économique et les usages individuels. A cet égard il est intéressant d'observer que les délais de diffusion auprès du grand public des grandes vagues d'innovations intervenues depuis le début du XIXème siècle, ne cessent de diminuer 1800-1860 Le train, la photographie et la machine à écrire mettent plus de 60 ans pour toucher le grand public 1890-1930 Automobile, électricité et radio ne mettront que 40 ans à transformer la vie quotidienne 1930-1960 Télévision et magnétophone changent la vie quotidienne en 30 ans 1950-1970 Le transistor révolutionne l'électronique en moins de 20 ans 1970-2000 Le microprocesseur, le fax, le CD , internet et le portable transforment notre vie quotidienne en moins de 10 ans Si l'on tient compte du quasi-doublement de la durée de vie moyenne depuis deux siècles, on mesure encore mieux la prodigieuse sensation d'accélération du progrès technologique. Un enfant qui naît aujourd'hui a toutes les chances de connaître une dizaine de révolutions technologiques et industrielles majeures au cours de sa vie alors qu'un homme ayant vécu de 1780 à 1850 aura connu et utilisé les mêmes objets du berceau à la tombe. Cette chronologie a retenu environ 250 avancées théoriques, découvertes et inventions majeures ou importantes. Cette liste n'est bien entendu ni exhaustive, ni objective, car elle reflète un choix et une vision du progrès scientifique qui appartiennent à notre époque, et ne peuvent par nature être définitifs. Il faut également souligner que cette chronologie ne concerne, pour des raisons de cohérence, que l'Occident et que certaines découvertes et inventions majeures ont été faites par d'autres civilisations -Chine et Inde notamment- bien avant les dates indiquées ici. Il est également important de rappeler que le progrès scientifique n'est pas un processus simple et linéaire. L'histoire des sciences est jalonnée de découvertes complètement sous-estimées ou même oubliées puis retrouvées. Quant aux grandes inventions, il s'agit souvent de véritables systèmes techniques complexes qui combinent de façon originale de nombreuses inventions préexistantes et s'appuient sur des avancées théoriques, décisives, la thermodynamique pour la machine à vapeur et l'automobile, les lois de l'électro-magnétisme pour le téléphone, la propagation des ondes pour la radio et la télévision, la logique binaire et les algorithmes pour l'informatique. PETITE CHRONOLOGIE DU PROGRES SCIENTIFIQUE EN OCCIDENT 1000 - Moulin à eau - Assolement triennal 1124 - Puits artésien de Lillers 1170 - Moulin à vent 1253 - Ecluse 1270 - Horloge à poids 1300 - Boussole 1337 - Premières armes à feu 1390 - Système bielle-manivelle 1410 - Horloge à ressort 1439 - Imprimerie (Guttemberg) 1443 - Canons en fonte 1453 - Héliocentrisme (Copernic) 1509 - Première montre 1558 - Chambre noire 1569 - Carte du monde (Projection de Mercator) 1600 - Microscope 1608 - Lunette astronomique (Galilée) 1628 - Circulation sanguine (Harvey) 1643 - Pression atmosphérique (Torricelli) 1652 - Machine à calculer (Pascal) 1660 - Première machine electrostatique 1673 - Calcul différentiel (Leibniz) 1678 - Nature ondulatoire de la lumière 1683 - Loi de la gravitation universelle 1705 - Machine à vapeur à simple effet (Newcomen) 1713 - Loi des grands nombres (Bernoulli) 1718 - Thermomètre à mercure (Fahrenheit) 1733 - Tension artérielle (Hales) 1736 - Chronomètre de marine (Harrison) 1742 - Echelle thermométrique (Celsius) 1756 - Ciment 1757 - Thermomètre (Cavendish) 1762 - Voiture à vapeur (Cugnot) 1769 - Machine à vapeur avec condensateur (Watt) 1770 - Voiture à vapeur (Cugnot) 1772 - Photosynthèse - Anesthésie 1774 - Chlore (Scheele) 1776 - Soude (Leblanc) 1777 - Analyse de l'air (Lavoisier) 1783 - Voyage en ballon (Pilâtre de Rozier) 1786 - Hélice (Ficht) 1790 - Métier à tisser mécanique (Jacquard) - Crayon (Conté) 1792 - télégraphe (Chappe) 1798 - Machine à papier en continu (Louis Nicolas Robert) 1800 - Pile électrique (Volta) - Infrarouges - Métier Jacquard 1802 - Eclairage au gaz 1803 - Simultanéité des photons (Young) 1807 - Bateau à vapeur 1814 - Locomotive à vapeur (Fulton) 1818 - Liquéfaction des gaz 1823 - Moteur électrique (Faraday) 1824 - 2ème principe de la thermodynamique (Carnot) 1825 - Lois de l'électricité (Ohm) 1827 - Photographie (Niepce) 1830 - Turbine hydraulique - Machine à coudre (Thimonnier) 1831 - Induction électromagnétique (Faraday) - Moissonneuse 1832 - Nitrocellulose 1833 - Machine à écrire (Progin) 1837 - Propulsion par hélice - Galvanoplastie 1838 - Pile à combustible (Grove) 1839 - Télégraphe électrique (Morse) 1843 - Machine à calculer (Babbage) 1843 - Logique booléenne (Bool) 1846 - Machine à coudre (Singer) 1849 - Béton (Monier) 1850 - Entropie (Clausius) 1851 - Câble télégraphique sous-marin 1852 - Ascenseur hydraulique (Otis) 1853 - Aluminium 1854 - Acier (Bessemer) 1857 - Microfilm (Dragon) - Machine frigorifique (Carré) 1859 - Théorie de la sélection naturelle (Darwin) - Puits de pétrole (Drake) - Accumulateur au plomb 1860 - Moteur à explosion (Lenoir) - Convertisseur Bessemer : naissance de la sidérurgie moderne - Asphalte 1864 - Loi de l'électromagnétisme (Maxwell) - liaison télégraphique transatlantique 1865 - Loi de l'hérédité (Mendel) - Dynamo (Gramme) - Pasteurisation 1866 - Benzène : naissance de la chimie moderne - Dynamite (Nobel) - Production industrielle de papier à partir de cellulose 1867 - Béton armé 1869 - Photographie couleur 1870 - Celluloïd 1872 - Théories des ensembles 1873 - Moteur électrique 1876 - Téléphone (Bell) - Turbine à vapeur (Parson) 1877 - Microphone (Hugs) 1878 - Phonographe (Edison) 1879 - Effet Hall - Lampe à incandescence (Edison) 1881 - Centrale électrique 1883 - Automobile (Delamare) - Alternateur (Tesla) 1884 - Viscose (Chardonnet) 1886 - Aluminium par électrolyse 1887 - Ondes hertziennes (Hertz) - Gramophone (Edison) - Disque (Berliner) - Téléphone automatique - Moteur asynchrone - Neurone (Ramon Y Cajal) 1888 - Cristaux liquides (Reinitzer) - Pellicule photo (Eastman) 1889 - Ondes courtes (Tesla) - Pneumatique (Dunlop) 1890 - Avion (Ader) 1891- Moteur à essence (Levassor) - Fixation de l'azote 1892 - Virus 1893 - Moteur Diesel - Aspirine 1895 - Cinématographe (Lumière) - Rayons X (Röntgen) - Electron (Thomson) 1896 - TSF (Marconi) - Radioactivité (Pierre et Marie Curie) - Enregistrement magnétique (Poulsen) 1900 - Théorie des quanta (Planck) - Groupe sanguin 1903 - Electrocardiogramme - Locomotive électrique (Siemens) 1902 - Théorie cinétique des gaz (Gibbs) 1904 - Tube cathodique - Diode (Fleming) - Transmission à distance des photos (Korn) - Impression offset (Rubel) 1905 - Relativité restreinte (Einstein) 1906 - Triode (De Forest) 1909 - Chromosomes (Morgan) 1910 - Lampe au néon 1911 - Atome (Bohr et Rutherford ) - Supraconductivité 1916 - Relativité générale (Einstein) - Calcul des probabilités (Borel) 1917 - Ultrasons (Langevin) 1919 - Première vérification expérimentale de la relativité générale (Eddington) 1920 - Enregistrement électrique 1922 - Polymérisation (Staudinger) 1923 - Télévision 1924 - Galaxies (Hubble) 1927 - Principe d'indétermination (Heinsenberg) - Cinéma parlant - Bande magnétique 1928 - Pénicilline (Fleming) - Télétype - Expansion de l'Univers (Hubble) - Magnétophone - Horloge à quartz 1930 - Nylon 1931 - Théorème d'incomplétude (Göedel) 1932 - Vitamine C 1934 - Principe de réfutation (Popper) 1936 - Transmission de l'influx nerveux - Algorithmes informatiques (Turing) 1937 - Moteurs à réaction - Mutations génétiques 1938 - Télévision couleur 1939 - Fission atomique - Microscope électronique 1940 - Cybernétique (Wiener) 1944 - Théorie des jeux (Von Neumann) 1946 - Ordinateur - Four à micro-ondes - Datation au carbone 14 1947 - Transistor - Holographie - Microsillon 1948 - Théorie de l'information (Schannon) 1953 - Structure de l'ADN (Watson et Crick) - Magnétoscope 1954 - Photocomposition 1955 - Pilule contraceptive (Pincus) 1956 - Disque dur magnétique 1957 - Satellite (Spoutnik) 1958 - Circuit intégré (Kilby et Noyce) - stéréophonie - Photocomposition - Photocopieur de bureau 1959 - Transistor à effet de champ 1960 - Laser - Cassette audio - Quasars - Fractales 1961 - 1er homme dans l'espace (Gagarine) - Premier robot industriel : Unimate - Commutation par paquets 1962 - Théorie des quarks - Satellite commercial de communication Telstar 1964 - Le premier laser C02 - Le code ASCII (American Standard Code for Information Interchange) 1965 - Rayonnement fossile de l'univers (Penzas) - Première liaison radio par satellite - Le PDP 8 de DEC, premier mini-ordinateur au monde - Early Bird, premier satellite de diffusion de télévision 1966 - Fibres optiques - Le modem portable Carterphone de John Van Geen - Premier télécopieur de bureau (Xerox) 1967 - Greffe du coeur - Première émission de télévision couleur par le procédé Secam 1968 - 3e génération d'ordinateurs : les ordinateurs à circuits intégrés - AT&T expérimente un téléphone entièrement électronique. 1969 - Homme sur la Lune - Arpanet - Cassette Vidéo (Sony) - Le Concorde 001 effectue son premier vol - Montre à quartz - Première synthèse totale d'une enzyme - Ram (mémoire dynamique de 256 bits-Intel) - Premier mini-ordinateur 16 bits : le Nova de Data General 1970 - Fibres optiques à faible atténuation - Protocole TCP/IP (Vinton Cerf et Robert Kahn) - Machine à commande numérique - Premier central téléphonique entièrement numérique (CNET) 1971 - Microprocesseur (Intel 4004/2300transistors/104 Khz) - Premier système de reconnaissance vocal (IBM) 1972 - Micro-ordinateur (Micral) - Premier microprocesseur 8 bits - Calculatrice de poche - Carte à puce (Moreno) 1973 - Apparition du disque souple (Floppy Disk. Diamètre : 8 pouces) - Photocopieur couleur 1974 - National semiconductor réalise un premier microprocesseur 16 bits - Code à barres alphanumérique 1975 - Endorphines - Scanner - Magnétoscope Betamax (Sony) - Imprimante laser. 1976 - Théorie de l'inflation de l'univers - Disque souple de 5,25 pouces - L'Apple 1 (Steve Jobs et Steve Wozniak) 1978 - Vérification de la mécanique quantique(Aspect) - Minitel - Fécondation in vitro - Disque optique numérique (DON) - Lancement de Transpac 1979 - Téléphone portable (Ericsson) - Motorola lance un microprocesseur 16 bits 1980 - Effet Hall quantique - disque souple de 3,5 pouces - Architecture RISC (Reduced Instructions Set Computer). 1981 - Théorie des cordes cosmiques - PC (IBM) - L'appareil photo magnétique (Mavica de Sony) - Synthèse chimique d'un gène humain de l'interféron - Lancement du premier modem grand public, le Smartmodem 1982 - Prion - Premier caméscope. Le Betamovie de Sony - Premier microprocesseur 32 bits - ATM (Asynchronous Transfer Mode-CNET). - FDDI (fiber distributed data interface) 1983 - Compact- Disc - Trous noirs - Premier film en images de synthèse 1984 - Le premier caméscope grand-public - Lancement du Macintosh - écran à cristaux liquides couleurs - première plante transgénique 1985 - Microscope à effet tunnel - Amplification génétique - Cédérom - Fullerènes - L'empreinte génétique (Jeffreys) - GSM (global system for mobile communications). 1986 - Premier traitement par anticorps monoclonaux - Supraconductivité haute température (35 K). - Radiocom 2000, premier service de téléphone mobile en France 1987 - Mémoire Flash (Toshiba) - Numéris, premier réseau numérique à intégration de service au monde 1988 - Carte PCMCIA 1989 - Lancement du " Human Genome Project " - Le microprocesseur 80486 d'Intel intègre plus d'un million de transistors - Apparition des modems ADSL (asymmetric digital subscriber line). - Puce à ADN 1990 - Première thérapie génique humaine - Premiers réseaux informatiques locaux sans fils 1991 - Nanotubes de carbone - lampe à induction magnétique (Philips) - Appareils photos numériques - Prototype de télévision haute définition numérique - Lancement de Linux - Le CERN annonce officiellement le World Wide Web 1992 - Mini-Disc,enregistrable et effaçable - Itinéris en France, le premier service de téléphonie mobile numérique GSM. - Commercialisation des premiers commutateurs ATM - Essais de thérapie génique dans le traitement de la mucoviscidose et du cancer - Entrée en service du système GPS (global positionning system) - Définition des normes JPEG et MPEG de compression des images - Mosaïc, premier navigateur Internet (browser) 1993 - Le Pentium d'Intel intègre plus de trois millions de transistors 1994 - La cassette vidéo numérique (DVC) 1995 - DVD (Sony) - Laser bleu - DAB (digital Audio broadcasting) 1996 - Premier grand écran plat à technologie plasma - Mémoire RAM dynamique d'un Gigabit. - Trithérapie antisida à base d'inhibiteurs de protéases. - Télévision numérique haute-définition. - Mammifère cloné (Dolly) 1997 - Premier véhicule à motorisation hybride - Le CD-RW réinscriptible 1998 - Démarrage d'Iridium, premier service mondial de téléphone mobile - Les Bell Labs réalisent la transmission de 1 térabit/s sur une fibre optique - Avènement de la norme V90 du super modem téléphonique à 56 Kbit/s. 1999 - Première cartographie complète d'un chromosome humain - Première cartographie complète d'un chromosome végétal - Première carte moléculaire complète d'un ribosome - Observation directe de la première planète en dehors du système solaire - Transistor de 18 nanomètres (Bell) Article rédigé par @RTFlash Sources : Le dictionnaire des découvertes de Bruno Caratini - Les grandes découvertes de la science (Bordas) - Histoire des sciences et des techniques de Bruno Jacomy - Petite histoire de la physique et de la chimie de jean Rosemorduc - Les Découvreurs de John Boorsteen
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|