|
|
|
|
|
NUMERO 368 |
|
|
|
|
|
|
|
Edition du 29 Décembre 2005
|
|
|
|
|
Edito
Fraude scientifique : la ligne jaune a été franchie !
Il est à présent certain que le célèbre scientifique sud-coréen Hwang Woo-suk n'a jamais créé de cellules souches spécifiques à des patients, malgré ses affirmations dans la prestigieuse revue "Science" en mai 2005. Dans cet article, le professeur Hwang Woo-suk avait affirmé avoir créé par clonage des cellules souches pour 11 patients, ouvrant ainsi de nouvelles perspectives pour les thérapies adaptées à des maladies difficilement soignables. L'avancée avait été unanimement saluée par la communauté scientifique et faisait de Hwang Woo-suk un candidat très sérieux pour le Nobel. Mais un panel d'experts nommé après les accusations portées contre le professeur Hwang par l'un de ses anciens collaborateurs a conclu le 23 décembre dernier que les résultats d'au moins neuf des 11 lignées de cellules souches avaient été falsifiés, les deux dernières lignées étant encore sujettes à enquête. "Le panel n'a pas trouvé de cellules souches correspondant à l'ADN de patients en rapport avec l'article de 2005 dans "Science" et il pense que l'équipe de Hwang n'a pas vérifié ses données scientifiques pour prouver que des cellules souches avaient été créées", a déclaré le doyen de l'Université de Séoul, Roe Jung-hye. A la suite de ce constat accablant, Hwang Woo-suk a dû quitter ses fonctions à l'Université de Séoul. Mais le chercheur sud-coréen Hwang Woo-suk a également falsifié une autre découverte revendiquée en 2004, selon un rapport publié, mardi 10 janvier, par une commission d'enquête indépendante. La commission de neuf membres de l'université nationale de Séoul, établissement auquel appartient le chercheur, a conclu en effet que la lignée de cellules souches que le Dr Hwang avait affirmé, en 2004, avoir extraite d'un blastocyte produit par clonage "n'était pas issue d'un embryon humain obtenu par clonage". Cette fraude scientifique par sa nature et son ampleur est d'autant plus grave qu'elle ne ruine pas seulement la carrière d'un scientifique brillant mais jette pour longtemps l'opprobre et la suspicion sur tous les scientifiques honnêtes qui, à travers le monde, travaillent sur ce domaine de recherches stratégique que constitue la recherche sur les cellules-souches et le clonage thérapeutique. L'histoire de la recherche est malheureusement parsemée de fraudes de ce genre dont les conséquences ont été désastreuses pour la science, gelant parfois pendant des décennies toutes avancées scientifiques réelles et provoquant d'affligeantes régressions conceptuelles et théoriques. L'imposture scientifique la plus célèbre, et la plus désastreuse, reste sans doute celle du biologiste soviétique Lyssenko qui réussit pendant plus de 30 ans, entre 1930 et 1960, à ériger en dogme scientifique officiel des théories délirantes niant tous les acquis de la génétique de Mendel, condamnée comme science « bourgeoise » et prétendant qu'il est possible de modifier les caractéristiques génétiques d'une plante en agissant sur son environnement ou encore qu'il est possible de donner naissance à une espèce végétale à partir d'une autre ! Plus tôt, en 1912, le paléontologue britannique Arthur Smith Woodward avait dévoilé à la communauté scientifique les restes du "premier Européen". "L'homme de Piltdown" était un faux, associant le crâne d'un homme moderne à la mâchoire d'un grand singe, probablement un orang-outang. Dans les années 90, Hendrick Schön, auteur de 16 articles parus dans des publications prestigieuses en l'espace de deux ans, paraissait parti pour révolutionner le domaine des matériaux supraconducteurs. Avant que ce chercheur des laboratoires américains Bell ne soit démasqué comme un simple imposteur. D'autres « découvertes », sans constituer de fraudes délibérées, n'ont jamais pu être confirmées et reproduites de manière rigoureuse et incontestable. C'est notamment le cas de la fusion nucléaire "froide" des Américains Stanley Pons et Martin Fleischmann que jamais d'autres équipes n'ont pu rééditer. Ce scandale de la fraude scientifique coréenne est révélateur de la pression de plus en forte qui pèse sur les chercheurs et de la compétition acharnée entre laboratoires, équipes et états qui conduit trop souvent certains chercheurs à s'affranchir des règles méthodologiques et éthiques fondamentales. Cette évolution alarmante tient également au fait que la carrière de scientifiques dépend de la fréquence de leurs publications dans des revues prestigieuses, comme l'américaine Science ou la britannique Nature. Toutes les grandes institutions de recherche, y compris celles à financement public, tiennent un décompte statistique des publications de leurs employés pour déterminer leur rang dans la communauté scientifique mondiale. Une étude menée auprès de 3.200 scientifiques américains et publiée en 2005 dans Nature révélait que 0,3 % des chercheurs interrogés avaient délibérément truqué le résultat de leurs recherches au cours des trois années précédentes. La proportion montait jusqu'à 15,5 % (20,6 % pour les chercheurs en milieu de carrière) lorsqu'on leur demandait s'ils avaient modifié leur méthodologie "à la suite de pressions exercées par une source de financement". "Nous sommes préoccupés par la perception qu'ont les scientifiques du processus de distribution des crédits", soulignaient les auteurs, en mettant en cause les mécanismes de la publication scientifique, ainsi que de l'attribution des bourses et des postes de chercheurs. Il faut souhaiter que le scandale des cellules-souches coréennes, qui jette un grave discrédit sur l'ensemble de la recherche biologique, provoque enfin un électrochoc salutaire au sein de la communauté scientifique et parmi les responsables politiques et que ceux-ci entreprennent sans tarder une profonde réforme de l'organisation et des mécanismes de la recherche scientifique, afin de permettre une évaluation plus rigoureuse des travaux et publications et de mieux prévenir ces impostures aux conséquences de plus en plus dommageables pour la recherche et le progrès scientifiques. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
L'opérateur historique abandonne le VDSL 2 et se concentre sur la fibre optique reliée directement chez l'abonné. Un déploiement financièrement lourd, qui se fera au gré du développement des usages. Didier Lombard, P-DG de France Télécom a décidé de miser sur la fibre optique déployée jusqu'à l'abonné (baptisée FTTH, pour Fiber to the Home) pour répondre aux besoins croissants de ses clients en débit. France Telecom explique qu'à court terme "la qualité de réseau de cuivre France Telecom et la maîtrise des technologies DSL permettent de satisfaire les usages du Haut Débit" mais qu'à "l'horizon de quelques années, les besoins en débit vont continuer à croître fortement". Mais pas question «de faire basculer du jour au lendemain des millions de prises», prévient le patron de FT. La première étape de cette orientation stratégique débutera dans un premier temps avec le lancement d'un projet pilote d'accès «très haut débit» (100 Mbits/s) d'ici juin 2006. Mille foyers seront sélectionnés à Paris et dans six villes des Hauts-de-Seine (Issy-les-Moulineaux, Boulogne, Rueil Malmaison, Asnières et Villeneuve la Garenne). Pour participer, ils devront toutefois débourser 80 euros par mois. Outre l'accès très haut débit, ils bénéficieront pour cette somme d'un service de téléphonie illimitée (VoIP), de la télévision haute définition, ainsi que de tous les services liés au boîtier Livebox de Wanadoo. Cette solution FTTH a été retenue pour succéder aux différentes technologies xDSL qui plafonnent désormais à 30 Mbits/s (débit théorique) pour l'ADSL 2+. Au passage, FT choisit de faire l'impasse sur un déploiement à grande échelle de technologie VDSL2 (Very High Rate DSL 2 ou ligne numérique d'abonné à très haut débit version 2), qu'il testait en laboratoire depuis l'automne dernier. «Nous arrivons au bout des capacités de la paire de cuivre», explique Didier Lombard. «Il ne serait pas raisonnable d'engager des investissements sur une technologie, le VDSL 2, dont je sais qu'elle ne va durer que deux ou trois ans». Car ensuite, selon ses prévisions, les usages de ses clients vont nécessiter des débits plus élevés, qui rendront le passage à la fibre optique incontournable. Pour l'opérateur, l'objectif est bien d'avoir un jour de la fibre optique dans tous les foyers, même dans les zones rurales. D'autres pays se sont déjà convertis à la fibre optique de bout en bout. La Corée du Sud y a recours pour connecter immeubles et domiciles. Au Japon, près de 4 millions d'abonnés sont aujourd'hui raccordés par FTTH (Fiber To The Home, soit la fibre jusqu'au domicile de l'abonné). Mais, en Europe, aucun opérateur historique n'a encore déployé cette technologie sur une large échelle. FT
|
|
|
|
|
|
|
|
Né en août 2004 avec la loi sur la réforme de l'assurance maladie, le Dossier médical personnel consiste à informatiser et à stocker chez des hébergeurs agréés les données de santé des Français de plus de seize ans. A chaque visite chez un professionnel de santé (médecin, kiné, pharmacien, centre hospitalier...), le patient pourra communiquer le code nécessaire pour accéder à son dossier sur Internet. Ce projet entre dans sa phase d'expérimentation avec la publication du décret n° 2006-6 du 4 janvier 2006 sur l'hébergement des données personnelles de santé qui donne le cadre juridique nécessaire pour autoriser des prestataires à gérer ces précieuses données. Les six consortiums de prestataires déjà sélectionnés (mais uniquement pour des tests) par le groupement chargé du dossier (le GIP-DMP) vont ainsi pouvoir démarrer des expérimentations grandeur nature en avril prochain. Selon les termes du décret, l'avis supplémentaire d'un comité d'agrément, adossé au ministère de la Santé, sera aussi requis, en plus de celui de la CNIL. Le décret fixe aussi les obligations des hébergeurs candidats au DMP, qui doivent notamment garantir « la sécurité, la protection, la conservation, et la restitution des données confiées ». Les détails techniques sont donnés dans le cahier des charges du GIP-DMP. Tous les prestataires doivent en effet s'accorder sur une même méthode, compatible avec tous les systèmes des divers professionnels de santé. Ainsi, pour accéder à un DMP, le patient (ou le professionnel de santé) devra saisir un code, qui sera enregistré voire imprimé sur sa future carte Vitale. Ce code sera calculé à partir de son numéro de sécurité sociale, en fonction d'un système de clés secrètes géré par un tiers de confiance. Mais, au final, c'est bien avec l'hébergeur que le patient signera un contrat. Le DMP prendra la forme d'un fichier informatisé, consultable sur Internet par le patient et les professionnels de santé. Le DMP pourra être consulté et enrichi à tout moment par un médecin ou une infirmière ou par tout autre professionnel de santé, à condition que le patient l'y autorise. Le patient pourra lui-même y accéder à travers un navigateur Internet en connexion sécurisée. Clé de voûte de la réforme de la protection sociale, il vise d'abord à lutter contre les gaspillages en évitant les traitements ou examens redondants. Il doit aussi permettre de mieux suivre les patients pour éviter les risques d'allergies et de traitements incompatibles. Le gouvernement y voit également une source non négligeable d'économies, qu'il chiffre à 3,5 milliards d'euros par an. Le DMP sera testé auprès de 5 000 personnes, pendant cinq mois. Les six consortiums sélectionnés vont proposer plusieurs sites pilotes, représentatifs géographiquement et par activité (hôpitaux, médecins, pharmacies...). Ce sont ces professionnels de santé qui proposeront aux patients de tester le DMP. Après analyse des expérimentations, le DMP devrait être réellement lancé fin 2006. Sa généralisation est prévue pour mi-2007. DMP Article @RTFlash
|
|
|
|
|
|
|
|
Les mémoires flash NAND devraient progressivement remplacer, dans les années à venir, les disques durs ou des mémoires d'autres types dans de nombreux appareils. Certains acteurs estiment que cette technologie va devenir, par exemple, un composant de plus en plus important des téléphones cellulaires, et qu'elle trouvera dès cette année sa place dans les disques durs des portables. Les premiers pourront alors enregistrer plusieurs heures de vidéo, et les seconds verront leur autonomie multipliée par deux ou plus. D'ici à la fin de la décennie, la mémoire NAND pourrait même se substituer complètement aux disques durs sur certains mini-ordinateurs portables, en raison de la capacité de stockage de données croissante de ces puces. Sans compter que ce type de mémoire flash occupe moins d'espace et consomme moins d'énergie, affirme Steve Appleton, P-DG de Micron Technology, l'un des plus grands fabricants de mémoire au monde. La mémoire flash NAND devrait également faire son apparition dans les systèmes de navigation embarquée, et jouer un rôle dans les grands systèmes de stockage de données des entreprises et organismes gouvernementaux dans un futur relativement proche, se réjouit Jon Kang, vice-président du marketing technique chez Samsung Electronics. Comme ce fut le cas pour de nombreuses autres technologies, les coûts diminuent parallèlement à l'augmentation des capacités. L'évolution de la mémoire NAND suit le schéma établi dans la loi de Moore, selon laquelle le nombre de transistors sur une puce double tous les deux ans. Le doublement de transistors contenus sur une puce mémoire permet aux fabricants d'y introduire davantage de mémoire. Dans les faits, la technologie évolue même un peu plus rapidement que la loi de Moore, notamment depuis que les puces NAND sont produites sur des chaînes de fabrication d'avant-garde. Un changement qui a participé à l'accélération du développement de produits. Actuellement, la densité de mémoire des puces NAND double chaque année. Par exemple, les puces 4 gigabits actuelles seront bientôt détrônées par des puces de 8 gigabits. Un autre facteur déterminant dans l'essor de cette technologie est son coût : le prix de la mémoire NAND diminue de 35 % à 45 % par an, phénomène qui s'explique encore en partie par la loi de Moore, et aussi par le fait que de nombreux fabricants construisent de nouvelles usines. 1 Go de mémoire flash coûte environ 45 dollars à un fabricant de produits électroniques grand public, selon l'analyste Jim Handy de Semico Research. Ce coût passera à 30 dollars l'année prochaine, 20 dollars en 2008 et 9 dollars d'ici à 2009. À raison de 45 dollars le gigaoctet, la mémoire flash reste donc presque cent fois plus chère que le stockage sur disque dur, qui peut être vendu aux constructeurs environ 65 cents le gigaoctet. Même dans les comparaisons les plus optimales pour la mémoire flash, celle-ci coûte invariablement plus cher, selon les analystes. En revanche, elle est avantageuse en termes de consommation d'espace et d'énergie. D'ici à 2007, Samsung produira des puces NAND de 16 Gbits et des puces de 32 Gbits un an plus tard. En conséquence, l'utilisation de puces NAND (complétées par une mémoire DRAM bon marché) se multiplie dans les téléphones. L'essor des ordinateurs portables passe également par l'adoption de ces mémoires NAND. Le moteur qui fait tourner les plateaux de disque dur est l'un des composants les plus gourmands en énergie d'un portable. «Que diriez-vous d'un portable avec une autonomie de quinze heures au lieu de trois ou quatre ? Et si vous pouviez vous passer de cette stupide séquence d'amorçage ?», lance Steve Appleton de Micron Technology. «Chaque fois qu'une solution de stockage peut être proposée à 50 ou 60 dollars, voire moins, les semi-conducteurs l'emportent sur la mécanique». La mémoire NAND permettrait aux PC de démarrer instantanément, car les données n'auraient pas besoin d'être extraites des plateaux du disque dur. De son côté, avec sa technologie Robson, Intel a réduit le temps d'amorçage en stockant les derniers logiciels et fichiers utilisés dans la mémoire flash. Zdnet
|
|
|
|
|
|
|
|
L'opérateur de télécommunications mobiles nippon, KDDI, a annoncé le lancement début février 2006 dans tout le Japon d'un service d'informations sur les transports et la navigation basé sur la reconnaissance vocale, une première commerciale dans l'Archipel. Jusqu'à présent, les Japonais pouvaient être guidés par leur téléphone (muni d'un récepteur de localisation par satellite GPS) en saisissant via le clavier dans un logiciel spécifique l'adresse de destination, ou bien encore les stations de départ et d'arrivée dans le cas d'une recherche de trajet en métro. A partir de février, les utilisateurs pourront effectuer les mêmes recherches, mais sans rien saisir : simplement en dictant leur requête au téléphone. Ce dernier, associé à un système de reconnaissance vocale en réseau affichera alors quelques secondes plus tard les résultats de la requête. Il sera par exemple possible de prononcer des phrases du type "de la station de Shibuya à celle d'Akihabara, départ vers 15 heures". L'analyse de la phrase sera effectuée par le serveur et non sur le téléphone lui-même selon le procédé technologique baptisé "reconnaissance vocale distribuée". L'emploi d'un puissant serveur, et non du terminal lui-même, permet d'optimiser le traitement des données et d'effectuer une analyse en exploitant un dictionnaire de termes très large. Le service permettra de rechercher un restaurant, un magasin ou tout autre lieu public en plus des adresses particulières précises et des horaires/trajets de transports. KDDI
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Le Care-O-bot, un robot développé par l'institut de Fraunhofer en Allemagne, est à ce jour le robot d'aide le plus avancé, car il ne s'occupe pas seulement des personnes âgées, ce robot peut aussi rechercher des objets que l'utilisateur réclame, comme par exemple du jus d'orange. Le robot peut aussi allumer la télé ou encore arroser les plantes. Son programme permet aussi à l'utilisateur d'être informé de l'horaire de la prise de ses médicaments. L'utilisateur de ce robot, une personne âgée par exemple, peut sélectionner une action ou un objet sur l'écran d'une tablette tactile. Imaginons que cette personne sélectionne un jus de pomme : le Care-O-Bot commence son lent périple vers son objectif : le réfrigérateur. Là, il ouvre la porte à l'aide de son bras mécanique, saisit le pack de jus de pomme, le pose sur sa tablette intégrée, referme la porte, prend un verre sur l'évier, le met à côté du jus de pomme et revient vers la dame qui l'attend, assise sur son canapé. L'interface n'impose pas le moindre apprentissage. En cas de doute lors de la sélection de la boisson, le Care-O-Bot prend une photo et l'envoie à l'utilisateur afin qu'il confirme son choix. Care-O-Bot Care-O-Bot
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
La Nasa s'apprête à lancer le vaisseau New Horizons vers Pluton, un périple d'au moins neuf ans vers la seule planète n'ayant pas été explorée dont les caractéristiques devraient aider à mieux comprendre les origines de notre système solaire. "Nos connaissances actuelles de Pluton tiendraient sur un timbre poste et les manuels d'astronomie seront réécrits après cette exploration robotique", souligne Colleen Hartmann, administrateur adjoint de la Nasa, l'agence spatiale américaine. New Horizons sera lancée depuis la base militaire de Cap Canaveral (Floride). Si tout se passe comme prévu, New Horizons, de la taille d'un grand piano, dotée de sept instruments scientifiques et pesant 454 kg, arrivera à proximité de Pluton au début de l'été 2015 après un parcours de 6,4 milliards de km. La sonde survolera alors pendant six mois la plus petite planète du système solaire et également la plus éloignée du soleil autour duquel elle fait une révolution en 248 ans. Elle pourra prendre de nombreuses images de Pluton, encore une énigme 75 ans après sa découverte par deux astronomes américains, et recueillir des données sur son atmosphère et sa géologie. New Horizons, une mission de 650 millions de dollars, procédera aussi à des observations de Charon, principale lune de Pluton ainsi que de deux autres satellites récemment découverts par le télescope spatial Hubble. La petite sonde traversera ensuite la ceinture de Kuiper où elle récoltera une moisson d'informations tout aussi précieuses. Les astronomes ont repéré dans cette ceinture d'astéroïdes, entourant notre système solaire, des centaines de milliers d'objets célestes apparemment similaires à Pluton. Ces découvertes suscitent un débat dans la communauté astronomique sur la classification de Pluton, dont une part grandissante l'apparente davantage à un gros astéroïde. Pluton est plus petite que sept satellites du système solaire. Son diamètre est deux-tiers celui de notre Lune. Mais au-delà de ce débat, les caractéristiques uniques de Pluton, mi-planète, mi-astéroïde, et de celles des millions de débris de la ceinture de Kuiper laissés par la formation du système solaire, en font un laboratoire céleste unique. Pour l'Académie des Sciences, l'exploration de Pluton, de ses satellites et de la ceinture de Kuiper, figure parmi les plus hautes priorités de la conquête spatiale en raison de "leur importance scientifique fondamentale pour faire avancer la compréhension du système solaire". Si le lancement intervient dans les onze premiers jours de la fenêtre de tir, la sonde arrivera dans le voisinage de Pluton au début de l'été 2015. Mais un lancement de New Horizons au-delà de cette période entraînera un retard de plusieurs années. Les scientifiques de la mission expliquent qu'il faut absolument arriver avant 2020. Pluton sera alors trop éloigné du soleil et son atmosphère sera gelée et transformée en neige. Pour gagner du temps, la Nasa va lancer la sonde sur une puissante fusée Atlas V-551 à deux étages, qui lui donnera une énorme vélocité --environ 50.000 km/h-- faisant de New Horizons l'engin spatial le plus rapide. Début 2007, l'engin frôlera Jupiter dont la force gravitationnelle le propulsera à plus de 75.000 km/h en ligne droite pour un rendez-vous avec Pluton. New Horizons est alimentée par un générateur thermoélectrique au plutonium produisant 200 watts. Son éloignement du soleil aurait empêché le fonctionnement de panneaux solaires. NASA
|
|
|
|
|
|
|
|
On croirait lire le scénario d'un film de science-fiction comme les affectionne Hollywood mais l'information est pourtant sérieuse : le gouvernement des Etats-Unis travaille actuellement sur un moteur "hyperspatial". Ce moteur pourrait faire des voyages interstellaires à travers d'autres dimensions. Cet engin, basé sur une théorie multidimensionnelle de la structure de l'univers, pourrait potentiellement permettre à un vaisseau spatial de se déplacer de la Terre jusqu'à Mars en trois heures et ne mettrait que 80 jours pour atteindre une étoile située à 11 années-lumière, selon un article très sérieux du magazine New Scientist. Le moteur, en théorie, fonctionne en créant un intense champ magnétique qui, selon la théorie du physicien allemand Burkhard Heim (décédé en 2001) produirait un champ gravitationnel et permettrait la propulsion d'un vaisseau spatial. En outre, si le champ magnétique produit était suffisamment élevé, le vaisseau pourrait se translater dans une dimension différente où la vitesse de la lumière est plus rapide, ce qui permettrait d'atteindre des vitesses extraordinaires. La simple coupure du champ magnétique aurait comme conséquence la réapparition du vaisseau dans notre propre espace à trois dimensions. L'US Air Force est intéressé par ce concept et les scientifiques travaillant pour le Département de la Défense américain estiment qu'un essai pourrait être envisagé si la théorie est soumise à une analyse minutieuse. Le Professeur Jochem Hauser, physicien à l'Université des sciences appliquées de Salzgitter en Allemagne, ancien aérodynamicien à l'ESA, a fait savoir que si tout allait bien un moteur opérationnel pourrait être testé dans environ cinq ans. Cependant, il prévient que le moteur est basé sur une théorie controversée qui doit absolument être validée. "Rien n'est joué" dit-il, "nous devons d'abord démontrer de manière rigoureuse que les hypothèses théoriques et mathématiques de Heim sont correctes, ce qui est loin de faire l'unanimité dans la communauté scientifique. Mais si la théorie est exacte, alors ce ne sera plus de la science-fiction, mais un fait scientifique avéré". L'attention des autorités américaines a été attirée après que le professeur Hauser et un scientifique autrichien, Walter Dröscher, aient écrit un article intitulé "Guide pour un appareil de propulsion spatiale utilisant la théorie quantique de Heim". Au début des années 1950, Heim a commencé à réécrire les équations de la relativité générale dans un cadre quantique. Il est parti de l'idée d'Einstein que les forces de gravitation émergent des dimensions d'espace et de temps, mais il a émis l'hypothèse que toutes les forces fondamentales de l'univers (forces nucléaires faible et forte, électromagnétisme et gravitation) pourraient en fait émerger d'un nouvel ensemble différent de dimensions. Dans le cadre de sa théorie, il a donc rajouté un nouveau "sous-espace" bidimensionnel à l'espace quadridimensionnel d'Einstein. Dans l'univers "héxadimensionnel" de Heim, les forces gravitationnelle et électromagnétique sont couplées. Même dans notre monde quadridimensionnel familier, il existe un lien entre les deux forces par le comportement des particules fondamentales telles que l'électron. Un électron possède une masse et une charge. Quand un électron tombe sous l'action de la gravité, sa charge électrique mobile crée un champ magnétique. Si l'on utilise un champ électromagnétique pour accélérer un électron, alors le champ gravitationnel lié à sa masse se déplace. Mais dans les quatre dimensions que nous connaissons, on ne peut pas modifier la force de la gravité simplement en produisant un champ électromagnétique. Dans la théorie de l'espace et du temps de Heim, cette limitation disparaît. Selon lui, il est possible de convertir l'énergie électromagnétique en énergie gravitationnelle et vice-versa, et il a prédit qu'un champ magnétique tournant pouvait réduire suffisamment l'influence de la gravité sur un vaisseau spatial pour lui permettre de décoller. Heim présenta sa théorie en 1957 et obtint une grande renommée scientifique. Wernher von Braun, le père de la fusée "Saturne" vint lui demander des conseils et, en 1964, le grand théoricien allemand Jordan, membre du Comité Nobel, dit à Heim que ses travaux pourraient lui valoir le Nobel. Heim continua ses travaux dont l'un des résultats fut un théorème contenant toute une série de formules pour calculer les masses des particules élémentaires, ce que les théories conventionnelles ne réussissaient pas à faire jusque là. Ces formules très complexes furent publiées en 1977 dans le prestigieux journal de l'institut Max Planck. Après la publication de ce théorème, Heim n'a plus jamais travaillé sur sa théorie hyperspatiale. Ce n'est que vers 1980 que Walter Dröscher reprit son idée dont il produisit une version étendue : un "espace de Heim-Dröscher", description mathématique d'un univers à huit dimensions, dont les quatre forces fondamentales de la physique pouvaient provenir. Selon Dröscher, si la vision de Heim doit avoir un sens, alors deux forces fondamentales supplémentaires sont nécessaires. Elles sont de la famille de la gravitation : une force d'anti-gravitation répulsive analogue à l'énergie noire qui semble provoquer l'accélération de l'expansion de l'Univers, et une autre qui pourrait permettre d'accélérer un vaisseau spatial sans utiliser une quelconque fusée classique. Cette dernière force résulte de l'interaction des 5ème et 6ème dimensions de Heim et des deux autres dimensions que Dröscher a introduites, qui génère des couples de "gravitophotons", particules médiatrices de la conversion réciproque des énergies électromagnétique et gravitationnelle. Mais pour démontrer la validité de cette théorie, il faut disposer d'un énorme anneau en rotation autour d'une spire supraconductrice pour créer un champ magnétique intense. Selon Dröscher, si le courant dans la spire est assez élevé et le champ magnétique suffisamment intense, les forces électromagnétiques peuvent équilibrer la force gravitationnelle agissant sur l'anneau de telle façon qu'il puisse flotter librement. Il indique que pour qu'un vaisseau de 150 tonnes puisse s'élever, un champ magnétique de 25 Tesla est nécessaire (soit 500.000 fois le champ magnétique terrestre) avec des impulsions brèves à 80 Tesla. Actuellement, seule la Défense américaine possède un appareil, baptisé "Z machine" susceptible de produire le type de champ magnétique nécessaire à cet engin hyperspatial. Dröscher pense qu'un vaisseau pouvant générer un champ électromagnétique assez puissant pourrait donc se propulser dans un hyperespace multidimensionnel où les constantes universelles de la nature (constante de Planck, constante de gravitation et vitesse de la lumière) seraient différentes. Dans cet hyperespace, la vitesse de la lumière serait plusieurs fois plus élevée que celle que nous connaissons, sans toutefois violer le cadre de la relativité générale d'Einstein. Dès lors, il deviendrait possible d'utiliser comme "raccourci" cet hyperespace multidimensionnel pour franchir en très peu de temps, pour les passagers de ce vaisseau, d'énormes distances interplanétaires ou interstellaires. Rendez-vous en 2010 pour les premiers tests ! L'hypothèse selon laquelle notre univers compterait en fait plus de quatre dimensions n'est pas nouvelle. Elle fut proposée à Einstein dès 1919 par le mathématicien polonais Théodore Kalusa et fut précisée en 1926 par le mathématicien suédois Oscar Klein. Depuis cette date, les physiciens appellent théorie de Kalusa-Klein, la possible existence de dimensions spatiales supplémentaires. Actuellement, la théorie des supercordes et de la supersymétrie, qui tente d'unifier la mécanique quantique et la relativité générale, repose sur l'hypothèse d'un univers à onze dimensions. Article @RTFlash
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Les climatologues français associés au groupe international d'experts de l'Onu, qui doit publier en 2007 un rapport sur le réchauffement de la planète, jugent nécessaire d'adopter une échelle ouverte pour l'augmentation des températures d'ici 2100. Le 4e et prochain rapport du Groupe d'experts intergouvernemental sur le réchauffement climatique (Giec, IPCC en anglais) sera remis début février 2007 et son contenu voté en assemblée générale. Sa préparation a généré un large ensemble d'études, en partie déjà publiées. "Ces études confirment que l'augmentation des températures (par rapport à 1990) sera d'au moins 2°C. Mais il devient difficile de fixer une maximale, car il existe un risque que la hausse soit bien supérieure aux 6° retenus jusqu'à présent", a indiqué à l'AFP Hervé Le Treut, climatologue français du CNRS et de l'Institut Pierre Simon-Laplace notamment. Le précédent rapport du Giec, qui réunit les travaux de plus de 2.000 experts du monde entier, date de 2001 : il prévoyait une augmentation moyenne des températures de la planète de 1,4°C à 5,8°C par rapport à l'année 1990, selon les scénarios d'émission des gaz à effet de serre. Faute de stabiliser ces émissions, dont l'augmentation est liée à l'utilisation des énergies fossiles en grande quantité (pétrole, gaz, charbon), le thermomètre grimpera d'au moins deux degrés et éventuellement de bien d'avantage, s'accordent les experts. Le réchauffement est particulièrement marqué depuis 1975, la décennie 1990 a été la plus chaude du dernier millénaire et l'année 2005 la deuxième année la plus chaude après 1998. "Nous devons envisager la possibilité que la hausse moyenne des températures excède les +6°C, en raison du grand nombre de facteurs amplificateurs possibles", a estimé Hervé Le Treut. "En 1998, la température a été extrêmement élevée en raison d'un phénomène El Nino très puissant. Mais depuis, le système a pratiquement rattrapé le niveau de 1998 qui nous paraissait pourtant extraordinaire", a-t-il expliqué. M. Le Treut a fait valoir que depuis la publication du premier rapport du Giec en 1990 (le 2ème date de 1995), les prévisions n'avaient pas changé sur le fond. "Elles ont juste été affinées et consolidées", a-t-il souligné. Le rapport du Giec en 1990 avait servi de base scientifique pour convaincre les Etats d'adopter la Convention des Nations unies sur le changement climatique, deux ans plus tard lors du sommet de Rio. Les travaux des climatologues établissent désormais un lien clair entre réchauffement climatique et augmentation des émissions de gaz à effet de serre d'origine anthropique (dues à l'homme). "Tout au long des 5.000 dernières années, le climat a varié avec des fluctuations de quelques dixièmes de degrés", a rappelé Hervé Le Treut, ajoutant que "cinq à six degrés, c'est ce qui nous sépare de l'ère glaciaire". Mais tout autant que l'amplitude du réchauffement, sa vitesse d'évolution est problématique car elle défie les capacités d'adaptation des écosystèmes et menace la biodiversité, a souligné l'expert. Wanadoo
|
|
|
|
|
|
|
|
Jusqu'à présent, il était établi que le méthane, l'un des six gaz responsables de l'effet de serre avec le gaz carbonique (CO2), était principalement diffusé dans l'atmosphère par les microbes vivants dans les milieux humides pauvres en oxygène. Mais une étude publiée dans la revue Nature indique que les végétaux vivants, tout comme les feuilles et les herbes sèches, en sont aussi de très gros pourvoyeurs. A partir d'expériences réalisées en laboratoire et sur le terrain, l'équipe dirigée par Frank Keppler, du Max Planck Institute d'Heidelberg (Allemagne), a calculé que la végétation mondiale relâche entre 62 et 236 millions de tonnes de ce gaz par an. Soit 10 à 30 % des émissions globales de méthane qui proviennent pour l'essentiel des fermentations à l'oeuvre dans les rizières, les marais et l'estomac des ruminants. Ces résultats pourraient expliquer un certain nombre de phénomènes, comme la baisse des émissions mondiales de méthane (- 20 millions de tonnes par an) constatée entre 1990 et 2000, période où plus de 12 % de la forêt tropicale ont été dévastés, ou encore les dégagements inexpliqués de ce gaz au-dessus des forêts constatés par les satellites. Surtout l'étude montre que les végétaux ne sont pas des «puits» de gaz à effet de serre au sens strict. S'ils fixent d'énormes quantités de gaz carbonique, leur bilan pourrait être amoindri par ces émissions de méthane que, curieusement, personne n'avait observées à ce jour. Nature
|
|
|
|
|
|
|
|
C'est ce que révèle une étude dirigée par le Pr John Christy, du Centre des sciences de la Terre à l'Université d'Alabama, aux États-Unis, faite à partir des mesures des satellites de la National Oceanic and Atmospheric Administration de ce pays. On savait que l'intensité du réchauffement climatique frappait plus fort les régions polaires, mais c'est la première fois qu'une étude en précise l'importance relative à partir de relevés satellitaires, ce qui est beaucoup plus précis que les mesures historiques au sol. Ces mesures incluent aussi des relevés dans les déserts et sur les océans, ce que seuls peuvent réaliser les satellites. Le rythme de réchauffement calculé par l'équipe du Pr Christy constitue une compilation globale des mesures réalisées depuis 1978 par les satellites météorologiques américains. Les compilations du centre de recherche indiquent que le climat planétaire s'est réchauffé de 0,35 degré Celsius depuis 27 ans. Pendant ce temps, les températures de l'Arctique ont augmenté de 1,16 degré Celsius alors que les températures des deux tiers de la planète n'augmentaient pour leur part que de 0,16 degré Celsius. Canoe
|
|
|
|
|
|
|
|
Une éolienne horizontale, la première en France, a été installée sur le toit d'un immeuble HLM d'Equihen-Plage (Pas-de-Calais), a-t-on appris auprès du bureau d'études qui a travaillé sur le projet. "L'installation d'une éolienne horizontale est une première en France, tout comme l'installation d'une éolienne en milieu urbain", a déclaré Antonin Coliche, ingénieur chargé d'études chez H2 Développement. "Elle a une puissance de 9.000 kW/h et devrait produire l'équivalent de la consommation nécessaire pour les parties communes des deux immeubles (de 20 habitations chacun, ndlr) situés en dessous", a-t-il ajouté. L'éolienne, qui évoque un fouet de pâtisserie couché sur le côté, a été érigée dans la résidence du Grand Air par la société néerlandaise Windwall, à l'origine de l'innovation, et devrait être raccordée au réseau EDF très bientôt. Le projet a coûté au total 70.000 euros. Il a été financé pour moitié par Pas-de-Calais Habitat, qui gère l'immeuble HLM sur lequel l'éolienne est installée, et pour moitié par l'Agence de développement et de maîtrise de l'énergie (Ademe) et le conseil régional, a précisé M. Coliche. AFP
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Plus de 1,9 milliard de dollars ont été réunis par une centaine de pays donateurs et les organisations internationales rassemblés à Pékin pour financer la lutte mondiale contre la grippe aviaire. Les bailleurs de fonds ont réuni les besoins de financements, estimés entre 1,2 et 1,45 milliard de dollars par la Banque mondiale, pour lutter contre le virus et parer à une éventuelle pandémie. Cette enveloppe comprend une ligne de crédits de 500 millions de dollars ouverte par la Banque mondiale pour les pays en difficulté. Parmi les plus gros donateurs figurent les Etats-Unis (334 millions de dollars), le Japon (135 millions de dollars) et l'Union européenne (la Commission européenne, pour 100 millions d'euros, soit 122 millions de dollars, et les pays membres de l'UE pour un montant total de même ampleur). La Suisse donnera pour sa part six millions de francs. Cette aide sera affectée en priorité à l'Asie du sud-est (635 millions de dollars), à l'Asie centrale et l'Europe de l'Est (225 millions), à l'Afrique (147 millions) et au Moyen Orient et au Maghreb (110 millions). Cet argent pourra être placé dans un fonds géré par la Banque mondiale, être donné directement de pays à pays pour des programmes précis, ou bien aller aux organisations compétentes, soit l'Organisation mondiale de la santé (OMS), l'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO) et l'Organisation internationale des épizooties (OIE). La Banque mondiale et les Nations Unies avaient estimé à 1,5 milliard de dollars (1,24 milliard d'euros) sur trois ans les fonds nécessaires pour lutter contre la maladie dans les pays pauvres, tout en avertissant qu'une pandémie pourrait faire plusieurs millions de victimes et coûterait beaucoup plus cher. Pour éviter ce scénario catastrophe, les organisations internationales préconisent un plan d'action qui serait consacré en priorité à la mise en place de réseaux de détection et d'intervention rapides. Les experts sont d'accord pour privilégier le contrôle, voire l'éradication du virus "à la source", dans les élevages de volailles, avant qu'il ait l'opportunité d'évoluer en une souche transmissible d'homme à homme. Aussi la priorité de cette action concertée va-t-elle à la mise en place de réseaux de détection et d'intervention rapides, accompagnée de campagnes d'information de la population et de la dotation de fonds de compensation pour les paysans qui déclarent leurs poulets ou leurs canards malades. Le plan de lutte prévoit enfin des campagnes d'information sur la nature du virus et les dangers de contamination causés par la promiscuité avec les oiseaux malades, ainsi que des stocks de médicaments antiviraux en cas de contagion humaine. Des stocks de médicaments antiviraux, notamment de Tamiflu, devront être constitués en prévision d'une contagion humaine, en plus de la réserve mondiale de 5 millions de traitements constituée par l'Organisation mondiale de la santé (OMS). Parallèlement à l'action internationale, les Etats-Unis ont annoncé l'envoi prochain en Turquie d'experts américains chargés d'aider les autorités sanitaires locales à lutter contre l'épidémie de grippe aviaire. Cette mission comprendra des spécialistes en matière de surveillance chez l'homme et les animaux. Les experts américains viendront prêter main forte aux spécialistes de l'Organisation mondiale de la santé (OMS) déjà présents dans le pays. L'OMS et un laboratoire londonien ont découvert sur l'un des cas mortels, et jusqu'ici sur un cas seulement, qu'une mutation était intervenue qui serait a priori plus dangereuse pour l'homme. Ce virus se fixe plus volontiers sur les récepteurs des cellules humaines que sur celles des oiseaux. Les autorités sanitaires turques ont confirmé qu'une adolescente décédée était morte de la grippe aviaire, ce qui porte à 4 le nombre des morts sur un total de 20 personnes contaminées par cette maladie en Turquie depuis fin décembre. Depuis 2003, la grippe aviaire a tué au moins 79 personnes en Asie, Turquie comprise. Article @RTFlash OMS BBC
|
|
|
|
|
|
|
|
Manger sain et léger est non seulement bon pour la santé en général, mais aussi bon pour le coeur, qui vieillit plus lentement, selon des chercheurs américains qui publient ce qu'ils présentent comme la première étude jamais réalisée sur ce sujet. Ces découvertes confirment des études antérieures menées sur des rats et des souris qui démontraient déjà les bénéfices cardiaques observés avec un régime pauvre en calories. Des chercheurs ont étudié la fonction cardiaque de 25 personnes membres de la Société de restriction calorique, âgées de 41 à 64 ans, qui consommaient 1.400 à 2.000 calories par jour. Ils les ont comparés à 25 personnes s'alimentant selon les normes alimentaires classiques des pays occidentaux, soit 2.000 à 3.000 calories en moyenne. Résultat : ceux qui avaient limité la quantité de calories consommées présentaient des fonctions cardiaques équivalentes à celles de personnes plus jeunes d'environ 15 ans en moyenne. Les échographies ont montré que le coeur des membres de ce groupe était d'apparence plus élastique que ceux des personnes de leur âge, et plus enclin également à se détendre entre deux battements. «Il s'agit de la première étude qui établit la preuve de l'efficacité sur le coeur d'un régime »basse calorie« à long terme associé à une alimentation optimale, notamment sur sa faculté à ralentir ou retarder son vieillissement», a déclaré Luigi Fontana, auteur principal de l'étude et professeur assistant de médecine à l'Université de Washington, à St Louis. Pour Luigi Fontana, il ne s'agit pas seulement de manger moins. Les membres du groupe étudié ont suivi un régime proche du régime méditerranéen, comprenant notamment des légumes, de l'huile d'olive, des féculents, des céréales, du poisson et des fruits. Ils ont évité les boissons sucrées, les desserts, le pain blanc, et d'autres sources de calories «vides». Les chercheurs recommandent donc au public de réduire modérément la quantité de calories et d'associer cette mesure à une activité physique modérée mais régulière. La recherche sur les rats et les souris souligne que l'espérance de vie pourrait être prolongée de 30 % environ avec un régime restrictif. Cette recherche souligne aussi qu'un régime pauvre en calories prévient le cancer. Les infarctus et les accidents vasculaires cérébraux sont responsables d'environ 40 % des décès dans les pays occidentaux. Le cancer est responsable de 30 %. Selon Luigi Fontana, ces morts sont attribuables au «vieillissement secondaire» provoqué par un trop fort taux de cholestérol, un diabète, une hypertension, et d'autres facteurs que l'on peut prévenir. Si on savait depuis longtemps qu'un régime sain associé à de l'exercice pouvait réduire les risques, l'étude suggère que la restriction calorique combinée à une alimentation «optimale» peut aller encore plus loin. Pour Luigi Fontana, la plupart des participants de l'étude avaient des parents proches ayant souffert d'infarctus ou d'accident vasculaire cérébral, il était donc peu probable que leur génétique ait pu contribuer à ce qu'ils aient un coeur en particulièrement bonne santé. «Nous ne savons pas combien de temps chacun de ces individus va vivre au bout du compte, mais ils ont une espérance de vie plus élevée que la moyenne parce qu'ils risquent moins de mourir d'un infarctus, d'un accident vasculaire cérébral ou de diabète», a déclaré le Pr John Holloszy qui a collaboré à l'étude. WU
|
|
|
|
|
|
|
|
Les hommes obèses ont plus de risques de mourir d'un cancer de la prostate que ceux de poids normal : le dépistage est plus difficile chez ces patients, selon une étude à paraître dans le numéro de février de la revue "Urology" qui invite les médecins à être particulièrement vigilants. La taille plus importante de la prostate chez les hommes obèses rend plus difficile le dépistage du cancer de 20 à 25 %, selon le Dr Stephen Freedland, un chirurgien du centre médical de l'Université Duke à Durham, principal auteur de l'étude. Chez un homme obèse, les biopsies ne couvrent pas la totalité de la glande prostatique, ce qui rend le diagnostic plus difficile. L'étude concerne les résultats de quelque 1.400 hommes diagnostiqués avec un cancer de la prostate, retiré chirurgicalement de 1998 à 2004, dans les hôpitaux de l'administration des anciens combattants de Californie et de Géorgie et à l'hôpital de la marine de San Diego. Le cancer de la prostate se situe au deuxième rang des cancers les plus fréquents, après le cancer de la peau. Selon la société américaine du cancer, 232.000 américains ont été diagnostiqués avec un cancer de la prostate et 30.000 en sont morts en 2005. De précédentes études ont montré que les hommes obèses chez lesquels on découvrait un cancer de la prostate avaient 20 à 35 % plus de risques d'en mourir qu'un homme de poids normal. La nouvelle étude montre que la prostate des patients obèses pesait plus lourd que celle des patients de poids normal. Les 245 hommes de l'échantillon qui étaient légèrement obèses avaient une prostate qui pesait en moyenne 28,35 grammes. Les prostates des hommes de poids normal pesaient la moitié ou les trois quarts de ce poids. L'étude du Dr Freedland recommande aux médecins de faire minutieusement aux hommes obèses un toucher rectal et de leur faire pratiquer des examens qui permettent d'avertir de la présence d'un cancer. Pour le Dr Durado Brooks, spécialiste du cancer de la prostate au sein de la société américaine du cancer, cette étude permet d'approfondir la compréhension du lien existant entre l'obésité et le cancer de la prostate. "C'est une pièce de plus du puzzle", estime-t-il. "Les études comme celle-ci aident à bâtir lentement une image plus claire". Toutefois, précise le Dr Brooks, d'autres études ont donné des indications contradictoires sur le risque de cancer de la prostate chez les obèses. Et il reste à déterminer si l'augmentation du risque de décès résulte d'une détection tardive ou d'une forme plus agressive de cancer. AP
|
|
|
|
|
|
|
|
Les acides biliaires contenus dans la bile sont-ils une des clés de la lutte contre l'obésité ? Pourra-t-on à l'avenir disposer de composés synthétiques proches de ces produits naturels et de surcroît vraiment efficaces contre ce fléau des temps modernes ? Il est permis de l'espérer à l'issue des travaux publiés par l'équipe du professeur Johan Auwerx (Institut de génétique et de biologie moléculaire et cellulaire, également à l'Inserm et au CNRS) de Strasbourg avec des équipes de la Harvard Medical School de Boston et des équipes japonaises de Tokyo, au Japon. Selon ces chercheurs, l'ajout d'acide biliaire à une alimentation très riche en graisses est capable de prévenir l'obésité, du moins chez la souris, et ce sans risque pour leur santé. Ces résultats, confirmés in vitro chez l'homme sur des cellules graisseuses en culture et sur des cellules musculaires, sont publiés dans la revue Nature en publication avancée du 8 janvier 2006. Ces travaux sont en tout cas un bel exemple de synergie entre la médecine traditionnelle et la recherche médicale de pointe. «Nous nous sommes intéressés à un remède japonais traditionnel, à base de bile extraite d'ours, utilisé par les anciens, pour ses effets antidiabétiques et anti-obésité», explique le Pr Johan Auwerx qui, avec trois chercheurs japonais dans son laboratoire, a cherché à percer le secret de ce remède. Certes, le rôle des acides biliaires, transformés dans le foie en sels biliaires, puis excrétés dans la bile vers l'intestin, est connu depuis de longue date. Ce sont des cofacteurs indispensables à l'action de la lipase pancréatique au cours de la digestion des lipides. Mais ils passent aussi très vite dans le sang après chaque repas, viennent de découvrir les chercheurs, après avoir réussi à les détecter en toute petite quantité grâce à des techniques hautement spécialisées de spectrométrie de masse. Les scientifiques ont ensuite montré que l'administration d'acides biliaires augmente chez la souris la dépense énergétique, prévenant ainsi obésité et diabète gras. Des souris nourries avec un régime très riche en graisses mais ayant reçu en sus de l'acide cholique (le plus abondant des acides biliaires) sont restées sveltes tandis que leurs congénères, alimentées de la même manière, sont devenues obèses. Mais l'ajout d'acides biliaires dans leur nourriture les a fait retrouver un poids normal en trente jours. «Nous avons donc démontré que, outre leur activité dans la digestion, ils jouent aussi un rôle d'hormones et de facteur régulateur du métabolisme», résume le Pr Auwerx. «En fait, ces acides biliaires vont stimuler la dépense énergétique aussi bien dans les muscles que dans une zone très particulière du tissu adipeux.» Dans la graisse brune, précisément, celle qui brûle les lipides (elle est très présente chez les animaux qui hibernent et chez les nouveau-nés pour les protéger de l'hypothermie). Par opposition à la graisse blanche, celle qui stocke les graisses. Les chercheurs ont aussi réussi à mettre en évidence le mécanisme de cette action. En fait, ces acides biliaires facilitent la transformation de l'hormone thyroïdienne inactive en forme active, au niveau de deux tissus, le muscle et la graisse brune. Ils augmentent ainsi le taux d'hormone thyroïdienne active à ce niveau, expliquant ainsi ce phénomène de protection contre les effets d'une alimentation hyperlipidique. Figaro
|
|
|
|
|
|
|
|
Les hommes âgés dont le taux de la testostérone libre dans le sang est bas pourraient, selon une nouvelle étude récemment réalisée par les chercheurs de National Institute on Aging (NIA), présenter un risque plus important de développer la maladie d'Alzheimer, indique un communiqué du ministère américain de la Santé. Il s'agit d'un pas en avant dans la compréhension d'effets possibles que pourraient entraîner les hormones sexuelles sur le vieillissement cérébral, estime une chercheuse travaillant sur l'étude, et citée par le communiqué. Cependant, beaucoup d'autres recherches devraient être menées avant d'établir une relation causale entre un faible taux de testostérone libre et la maladie d'Alzheimer. En effet, l'équipe de scientifiques, dirigée par le Docteur Susan Resnick a trouvé, en étudiant un échantillon de 574 hommes, âgés de 32 à 87 ans, que les hommes ayant développé la maladie d'Alzheimer présentaient en moyenne environ deux fois moins de testostérone libre que ceux n'ayant pas la maladie. Corrélativement, les hommes qui avaient un taux de testostérone libre deux fois plus important que la moyenne voyaient leurs risques d'Alzheimer diminuer de 26 %. Toutefois, on est encore loin de savoir si une thérapie hormonale pourrait empêcher de façon sûre la maladie d'Alzheimer, et si elle serait judicieuse pour les hommes âgés. De plus, de nombreux effets de thérapies hormonales restent inconnus, dont par exemple le risque de cancer de la prostate. La testostérone, l'hormone sexuelle masculine secrétée par les testicules, a tendance à se lier avec une protéine, la SHBG (Sex Hormone Binding Globulin). Mais elle peut également être transportée dans le sang sous une forme libre, appelée « testostérone libre ». C'est cette forme-là qui peut circuler dans le cerveau et affecter les cellules nerveuses. NIH
|
|
|
|
|
|
|
|
Une algue qui prolifère dans les eaux usées pourrait permettre de lutter contre la maladie d'Alzheimer, a-t-on appris auprès de l'Université de Zurich. Les chercheurs de l'Université et de l'école polytechnique de Zurich (EPFZ) ont baptisé "nostocarboline" une substance issue de l'algue bleu vert Nostoc prélevée dans des réservoirs d'eaux usées aux Etats-Unis. Lors d'essais en laboratoire, les chercheurs ont constaté que cette substance neutralisait l'enzyme cholinestérase, en partie responsable de la maladie d'Alzheimer, selon ces recherches publiées dans les magazines Journal of Natural Products, ETHLife et Unipublic. Des années pourraient toutefois s'écouler avant la fabrication d'un médicament à base de cette substance, ont averti les savants. Plus de 24 millions de personnes souffrent dans le monde de la maladie d'Alzheimer ou de troubles apparentés, et leur nombre devrait doubler tous les vingt ans, avec un nouveau cas toutes les sept secondes, ressort-il d'une étude publiée le mois dernier par la revue médicale britannique The Lancet. Selon les chercheurs suisses, la nostocarboline pourrait aussi être utilisée comme herbicide. L'algue qui la contient ne la produit pas par hasard : elle se protège ainsi contre les insectes, les petits crabes ou les autres algues. La nostocarboline, qui freine la croissance d'algues, pourrait ainsi servir à lutter contre la prolifération d'algues dans les mers, disent les chercheurs. ACS
|
|
|
|
|
|
|
|
L'état d'engourdissement passager ressenti au réveil après une nuit normale handicape davantage les capacités mentales qu'un manque de sommeil de plus de 24 heures ou qu'un état d'ivresse, selon une étude publiée aux Etats-Unis. Une équipe de chercheurs conduite par Kenneth Wright du département de physiologie de l'Université de Boulder (Colorado, ouest) a procédé à des tests d'agilité mentale et de mémoire à court terme sur un groupe de personnes pendant une semaine. Ils ont constaté que les sujets testés juste après leur réveil, à l'issue d'un nuit normale de huit heures ou d'une période plus courte de sommeil profond, avaient des performances encore plus médiocres que ceux n'ayant pas dormi 24 heures d'affilée. "Pendant une courte période, les effets de cet engourdissement au réveil semblent parfois aussi sévères voire pires que chez des personnes ivres", a indiqué Kenneth Wright dont les travaux paraissent dans le Journal of the American Medical Association (JAMA) daté du 11 janvier. Les sujets testés se sont montrés les plus inaptes à effectuer des calculs mentaux simples ou d'autres tests élémentaires pendant les trois premières minutes suivant leur réveil. Les effets de l'engourdissement se dissipent généralement en dix minutes tout en étant sensibles durant une période de deux heures, selon ce chercheur. Kenneth Wright a cité une étude du Dr. Thomas Balkin du Walter Reed Army Research Institute, qui montre que la région frontale du cortex cérébral, siège du raisonnement et des émotions, était plus lente à redémarrer après une période de sommeil que les autres parties du cerveau. Il a souligné que ses travaux pourraient avoir des conséquences sur certaines professions comme les routiers ou le personnel médical, parfois sortis brutalement de leur sommeil pour prendre rapidement des décisions dont dépend la vie de quelqu'un. JAMA
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Le Comité de suivi de la charte d'engagements pour le développement de l'offre légale de musique en ligne, le respect de la propriété intellectuelle et la lutte contre la piraterie numérique vient de publier ses conclusions sur l'état des offres légales en France. Lors d'une réunion tenue le 16 janvier, il s'agissait de faire le point sur l'application des engagements pris dans le cadre de la Charte, après 18 mois d'ancienneté. Alors que les débats de la loi impliquée vont reprendre et que le Midem s'ouvre, il salue l'essor d'une offre de musique en ligne « de plus en plus abondante et attractive. » Un progrès jugé nécessaire par les signataires de la Charte « pour que le désir de musique se détourne de la piraterie » (comprendre : contrefaçon). Selon ce Comité, « les objectifs fixés par la Charte sont désormais atteints et même dépassés. » Il signale 21 plates-formes musicales légales dotées d'une offre en croissance constante. Pour preuve, il annonce que plus de 90 % des albums et des singles du top 100 sont disponibles. Il décompte en outre plus de 750 000 titres fin 2005. Du coup, selon ce Comité, « on trouve via l'Internet, sur tout le territoire, plus de titres en offre légale que l'on peut en trouver dans les plus grands magasins de disques en France. » L'on constate de plus une demande accrue de la part des consommateurs. Ainsi, toujours selon ce comité, au cours des trois derniers mois, le nombre de titres téléchargés chaque semaine par les internautes depuis des plates-formes payantes a été multiplié par 2,5. En 2005, ainsi, le nombre total de titres achetés en ligne est proche de 20 millions. Le chiffre d'affaires qui en découle s'élèverait à 18,5 millions d'euros TTC. Pour le Comité, « ces résultats encourageants incitent les signataires de la Charte à affirmer leur conviction qu'il est nécessaire, dans les mois qui viennent, de donner toutes leurs chances au développement de l'offre légale de musique en ligne et au modèle du téléchargement de musique payant. » Nul doute que le rapport servira certaines causes au Parlement. PCI
|
|
|
|
|
|
|
|
Cette fois, la page s'est bel et bien tournée pour les aficionados du Macintosh, lors de l'ouverture de Macworld 2006 à San Francisco. Un peu plus de six mois après avoir pris sa décision d'abandonner les processeurs IBM PowerPC, Steve Jobs a présenté ses premières machines équipées de puces Intel. Soit six mois avant la date prévue officiellement. Plusieurs analystes, plutôt sceptiques au départ sur la capacité d'Apple à effectuer cette bascule technologique dans les temps, ne cachaient pas avoir été agréablement surpris. Il faut dire que le nouvel allié, Intel, n'a pas mégoté son soutien : il a affecté pas moins de 1000 ingénieurs pour permettre aux Mac d'adopter ses processeurs. Contrairement au rumeurs, ce n'est pas le Mac Mini qui a été choisi pour étrenner le partenariat, mais l'ordinateur phare de la marque : l'iMac. Parti officiellement à la conquête des utilisateurs du monde Wintel, en essayant de surfer sur le désormais célèbre effet de "halo" créé par le succès de l'iPod, Apple s'est en effet aperçu que c'était l'iMac qui avait le plus de succès auprès de cette cible. Et non le Mac Mini, censé permettre à des nouveaux utilisateurs de goûter à la saveur d'Apple à un moindre coût. Moyennant quoi les nouveaux iMac conservent le design, la taille... mais aussi le tarif des modèles G5 existants ! Soit une rupture avec l'usage jusque là établi d'abaisser les prix des modèles déclassés par de nouvelles versions. Sans parler de la déception de certains qui nourrissaient le fol espoir d'une baisse des prix autorisée par le mariage avec le n°1 mondial des microprocesseurs. Au final, la gamme de prix des iMac Intel débute à 1.299 dollars aux Etats--Unis, ou 1379 euros en France. Mais à ce tarif, les machines sont désormais équipées du nouveau microprocesseur Core Duo, ce qui les rend deux à trois fois plus rapides que l'actuel iMac G5. Leur livraison devrait débuter dans les prochains jours. Steve Jobs ne s'est pas privé d'insister sur ce gain de puissance, ce qui peut prêter à sourire quand on se rappelle l'ancien discours officiel qui entourait la supériorité supposée des puces Power PC de son ex partenaire IBM. Reste que ce "passage à l'ennemi" est également justifié par Apple par la nécessité d'avoir accès à des puces plus économes en énergie et connaissant moins de problème de surchauffe. La firme de Cupertino se donne ainsi jusqu'à la fin de l'année pour assurer la transition de l'ensemble de sa gamme Macintosh vers des processeurs Intel. Apple a annoncé en outre le lancement du MacBook Pro, ordinateur portable haut de gamme et premier modèle appelé à remplacer la gamme de portables PowerBook. Cette machine devrait être commercialisée dès le mois prochain à partir de 1.999 dollars, ou 2149 euros en France. Mais le lancement des premiers MacIntel, ce n'est pas qu'une révolution matérielle. Il s'accompagne en effet d'une nouvelle version du système d'exploitation Mac OS X développée en mode natif par rapport au processeur, afin d'en tirer toutes les possibilités. Certaines applications phares ont également d'ores et déjà été mises à niveau comme la suite iLife (iTunes, iPhoto, iDVD, GarageBand, i Movie, et la dernière, iWeb, pour la création de pages web). Mais il faudra attendre plusieurs mois avant que tous les logiciels de la plate-forme migrent vers la nouvelle architecture, même si un "interpréteur", baptisé Rosetta, permettra en attendant aux possesseurs des nouveaux Mac de "faire tourner" des anciennes applications développées pour l'univers Power PC. Reste que le plus révolutionnaire n'est pas là. Désormais, en effet, il est théoriquement et techniquement possible d'installer le système d'exploitation de Microsoft sur un Mac. Apple a officiellement indiqué qu'il n'avait rien fait pour empêcher une telle installation. Ce dont s'est d'ailleurs officiellement réjoui Scott Erickson, le patron de la division de produits Mac de Microsoft. Le n°1 mondial du logiciel a d'ailleurs signé un pacte de 5 ans avec Apple afin de porter les logiciels sur la plate-forme MacIntel. Une version adaptée de sa suite bureautique Office est ainsi déjà programmée. Expansion
|
|
|
|
|
|
|
|
Créé en 2005, Mobiljob est le premier site d'emploi accessible exclusivement par l'Internet mobile. A l'origine de l'idée, un constat : «Certains recruteurs ont des difficultés à communiquer avec les jeunes non-cadres, car ceux-ci n'ont pas facilement accès à un ordinateur et ne lisent pas la presse», explique Thierry Le Gueut, directeur associé de Mobiljob. Déposer un mini-CV, postuler, être alerté par SMS d'une offre intéressante est réservé non plus aux quelque 23 millions d'internautes, mais aux 48 millions de Français utilisateurs de portable. Il leur en coûtera 75 centimes d'euro pour répondre à une annonce. Actuellement, le site est nourri par 10 000 CV et 1 800 offres provenant essentiellement des secteurs du BTP, de l'hôtellerie-restauration, de la grande distribution, mais aussi des sociétés d'intérim. Près de 40 000 visiteurs s'y connectent chaque mois. Les concepteurs de Mobiljob font même des émules. A la rentrée, DialJob a lancé un service concurrent de messagerie vocale consacrée à la recherche d'emploi et spécialement destinée à ceux qui n'ont pas accès à Internet. Il suffit d'appeler un numéro de téléphone, de pianoter sur les touches pour déposer un CV et écouter les offres d'emploi préenregistrées. Depuis près de deux ans, l'ANPE convoque ou alerte les demandeurs d'emploi par message vocal ou SMS lorsqu'une offre correspond à leur profil. «Ce système nous permet aussi d'être très réactifs, de gagner du temps et de l'énergie, explique Muriel Hennequin, chargée de projet à la direction régionale de Bourgogne, qui a ainsi recruté en moins de six mois 240 personnes pour l'ouverture d'un grand magasin. En quelques minutes, une centaine de personnes sont contactées et peuvent répondre à la sollicitation. Très vite, on sait si la cible est la bonne.» Le téléphone recruteur a de beaux jours devant lui. Express
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|