|
|
|
|
|
NUMERO 371 |
|
|
|
|
|
|
|
Edition du 08 Février 2006
|
|
|
|
|
Edito
La consommation musicale bascule dans l'économie des flux
Dans le cadre de son partenariat avec Intel, France Télécom vient d'annoncer le lancement d'une plate-forme de loisirs numériques basée sur la technologie Viiv. Parmi les nouveaux services proposés par cette plate-forme, un service de musique à la demande "Wanadoo Jukebox", qui propose un catalogue de 1,1 million de titres disponibles à partir de 0,99 euro. De son côté, l'opérateur SFR a annoncé au Midem (Marché International du Disque et de l'Edition Musicale) à Cannes le lancement d'un forfait à 14,90 euros par mois qui donnera un accès illimité à 80.000 titres du catalogue Universal Music, ce qui constitue la première offre du genre en Europe. Sous réserve d'être équipés d'un Nokia 6630, 6680 ou N70, les 30.000 premiers clients SFR qui le souhaitent pourront ajouter 14,90 euros à leur abonnement téléphonique et profiter du "Pass Musique illimitée", qui vient compléter le kiosque musical de 500.000 titres proposé depuis plus d'un an par l'opérateur. Cette offre permet de télécharger sur son mobile un nombre illimité de chansons parmi un catalogue pour le moment réservé à 80.000 titres Universal Music. L'opérateur entend bien sûr étendre l'offre aux trois autres majors (Warner, EMI et Sony BMG), dès qu'un accord aura été obtenu avec ces maisons de disques. Des offres similaires sont déjà disponibles, notamment aux Etats-Unis où des entreprises comme Yahoo! ou Virgin proposent la location illimitée de musique avec un abonnement mensuel. Confirmant sa volonté d'installer sa marque dans la musique numérique, SFR a également annoncé officiellement le lancement, en collaboration avec Sony NetServices, d'un "service d'écoute interactive de musiques sur mobiles 3G et sur PC". SFR Radio DJ "permet à l'utilisateur de créer ses propres stations en fonction de différents genres, ambiances et époques musicales au choix", et surtout en fonction de ses préférences musicales. En indiquant à chaque écoute s'il aime ou non un morceau, l'auditeur influe sur les titres qui lui seront ensuite proposés. Alors que SFR annonçait son forfait musique, la plate-forme musicale britannique Wippit signait un accord avec DEM, un distributeur qui gère actuellement les inventaires de CD, DVD et jeux vidéo de nombreux supermarchés français dont Casino, E. Leclerc, Champion et Monoprix. L'accord permettra à DEM d'investir prochainement les rayons de nos supermarchés avec des cartes prépayées de chansons que les clients pourront télécharger sur un site créé et géré par Wippit. Enfin, de son côté, le britannique Vodafone va lancer un nouveau service de téléphonie mobile de troisième génération (3G) en collaboration avec le japonais Sony NetServices pour son service Vodafone Radio DJ qui proposera des canaux musicaux personnalisés aux détenteurs de téléphones portables 3G et d'ordinateurs. Les clients ont accès à des centaines de chansons, des tubes actuels comme du fond de catalogue, des plus grandes maisons de disques au monde comme de labels indépendants. L'opérateur britannique, comme nombre de ses pairs du secteur, cherche à augmenter ses revenus pour amortir les milliards de dollars investis dans les services de téléphonie 3G alors que la concurrence tire les prix à la baisse. Le nouveau service sera personnalisé, les utilisateurs pouvant définir leurs goûts musicaux grâce à deux boutons "aime" et "n'aime pas" lorsqu'ils écouteront une chanson. Si le bouton "n'aime pas" est pressé, le système passe à la chansons suivante et le système de classification de Sony s'assurera d'éviter la chanson en question et celles qui lui ressemblent.Vodafone, qui prévoit de lancer le service en Grande-Bretagne, France, Allemagne, Espagne, Italie et au Portugal dans les prochains mois a ajouté que le service serait accessible sur la base d'un abonnement mensuel pour une écoute illimitée sur téléphone ou ordinateur portable. C'est dans ce contexte de bouleversement techno-économique et alors que le débat sur la gestion des droits numériques (DRM) et la légalisation des échanges "Peer to Peer" fait rage, dans le cadre de la discussion du projet de loi relatif au droit d'auteur et aux droits voisins dans la société de l'information, dite "Loi DADVSI" qu'est intervenu un jugement très attendu : à la suite d'une assignation des sociétés Warner Music France et Fnac par UFC Que Choisir et un consommateur le 28 mai 2003, concernant l'utilisation d'un verrou anti-copie sur un CD de Phil Collins (Testify), le tribunal de grande instance de Paris a jugé le 10 janvier 2006 que le CD était affecté d'un vice caché le rendant impropre à l'usage auquel il était destiné, à savoir sa lecture sur tous les lecteurs. En effet, l'utilisation d'un système anti-copie de ce type rend la lecture impossible sur certains disques durs d'ordinateurs mais ne correspond pas du tout au code de la propriété intellectuelle. Les juges ont indiqué que Warner et Fnac avaient failli à leur obligation d'information en n'informant pas les consommateurs sur les restrictions de lecture sur les lecteurs de CD d'ordinateurs. Cette décision confirme deux autres jugements rendus en avril 2005. Ce jugement est très important car il met un coup d'arrêt aux restrictions d'utilisation de plus en plus grandes des supports numériques musicaux. Jusqu'à présent, quand le consommateur achetait un CD, il pouvait, d'une part, écouter sans restriction son CD sur sa chaîne Hi Fi, son ordinateur, son lecteur portatif ou son lecteur de voiture et il avait la possibilité, d'autre part de faire des copies de son CD sous différents supports, sans limitation de nombre, à condition bien sûr que ces copies soient utilisées pour son seul usage personnel et ne fassent pas l'objet d'une revente ou d'un commerce. Mais récemment les maisons de disque et les géants informatiques comme Microsoft ou Apple ont multiplié des dispositifs "anti-piratage" et formats propriétaires visant à rendre impossible ou à restreindre le nombre et la forme des copies numériques de CD ou fichiers musicaux. Mais derrière le motif louable de combattre le piratage et les copies illégales se cache à l'évidence la volonté d'imposer des normes et formats et de contrôler étroitement toute la chaîne d'acquisition et de consommation numérique. Mais à l'évidence il s'agit d'un combat d'arrière-garde car le consommateur qui acquiert légalement une oeuvre musicale n'acceptera pas que son droit d'utilisation ou de copie à usage privée soit limité et les verrous technologiques mis en place seront de tout façon contournés d'une manière ou d'une autre. En outre, l'explosion des "Podcasts" et de services et plate-forme d'achat de musique en ligne, téléchargeable sur son ordinateur et, de plus en plus, sur son mobile, montre à quel point la consommation musicale est passée d'une logique de "stockage" physique, qui passait par l'achat et la détention d'un support (CD, cassette, mini disque) à une logique de flux dans laquelle le consommateur ne souhaite plus posséder chez lui en permanence un support physique mais veut avoir un droit d'accès, quel que soit l'endroit où il se trouve, à partir de l'ensemble de ses terminaux numériques, y compris son téléphone portable, à une immense discothèque virtuelle constituée par toutes les oeuvres musicales disponibles sous forme numérique. Il faut, au lieu de multiplier les entraves techniques inutiles, imaginer de nouveaux modèles économiques qui répondent à ces attentes du consommateur, tout en permettant une juste rémunération des compositeurs et éditeurs de musique. Ces modèles économiques combineront la logique du forfait, permettant pour une somme donnée, un accès illimité à tel ou tel catalogue thématique (en fonction des goûts de l'auditeur) et la logique du paiement à l'acte par "microflux" qui permettra, pour les nouveautés, un droit d'écoute valable pour un morceau, pendant une durée donnée. Si un jeune a 15 ou 20? par mois à dépenser pour son budget "musique" il préférera prendre un abonnement mensuel qui lui permettra de télécharger de la musique sur un vaste catalogue de titres, à partir de son mobile, de son PC ou de son lecteur MP3, plutôt que dépenser cette somme en une fois pour l'achat d'une seul CD. A cet égard, l'incroyable succès de l'écoute en avant-première du dernier album de Madonna sur les mobiles Orange est révélateur des nouvelles attentes des consommateurs ! Cela ne signifie par pour autant que le CD, ou les autres supports physiques de la musique, sont appelés à une disparition rapide car des études ont montré qu'un consommateur qui découvrait un artiste et s'y attachait finissait par avoir envie de posséder les CD de cet artiste, surtout lorsqu'il s'agit de CD "collector". Mais la dématérialisation et la numérisation intégrale de la musique font que nous sommes passés d'une logique de détention physique et de propriété à une logique d'accés instantané et ubiquitaire à un service qui doit pouvoir fournir au consommateur le morceau qu'il souhaite, quand et où il le souhaite et sous la forme numérique qu'il veut. En contrepartie de ce service numérique, le consommateur doit s'habituer à payer des droits d'accès et d'écoute, sous forme de "microflux" permanents et indolores. Parmi les nombreuses idées qui circulent pour construire ce nouveau modèle économique, on peut noter celle, novatrice, d'un système de paiement sur les plates-formes P2P (Peer-to-Peer). Ce modèle permettrait aux fichiers autorisés par les maisons de disques de circuler sur les réseaux P2P, tandis que les autres resteraient inaccessibles au téléchargement. Cette circulation s'accompagnerait bien sûr d'un mécanisme de paiement : l'idée est que si quelqu'un met à disposition un fichier identifié, il obtient un crédit pour avoir fait diffuser un titre à tel nombre de personnes ; ou il gagne un crédit pour télécharger. En parallèle, bien sûr, tous ceux qui téléchargeraient le fichier mis à disposition en P2P paieraient les morceaux qu'ils auraient choisis. Le but du système est que tous les échanges puissent donner lieu à une remontée d'informations et permettre la rémunération des ayants droit. Quel que soit le nouveau modèle économique qui émergera, il faudra qu'il concilie les principes d'équité de rétribution et de liberté d'échanges et d'utilisation des fichiers musicaux, afin que tout le monde puisse y trouver son compte : le consommateur qui pourra, pour une somme modique, satisfaire son besoin de nouveauté et d'écoute en mobilité, l'éditeur qui pourra rentabiliser ses frais de production et de distribution et l'artiste qui pourra tirer une juste rétribution de ses créations. L'éditeur devra aussi être rémunéré dans la juste proportion des frais qu'il aura engagé et éventuellement des risques qu'il aura su prendre. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Les opérateurs de messageries électroniques AOL (groupe Time Warner) et Yahoo! vont proposer aux entreprises cherchant à démarcher leurs abonnés de payer pour s'assurer que leurs envois de courriels arrivent bien à destination. Pour garantir que les envois ne seront pas bloqués par les filtres anti-spam, AOL et Yahoo! vont recourir à un nouveau service lancé l'automne dernier par Goodmail Systems, une entreprise californienne se présentant comme l'initiatrice du concept de "courriel recommandé" (CertifiedEmail), à l'image du courrier postal recommandé. "Nous allons mettre cela en application dans les 30 ou 60 prochains jours", a déclaré lundi Nicholas Graham, porte-parole d'AOL. Il s'agit du premier service payant proposé aux expéditeurs d'envois en masse, a-t-il précisé, soulignant que ceux-ci pouvaient continuer de préférer la gratuité. De son côté, "Yahoo! projette de tester ce nouveau système dans les mois qui viennent, afin de fournir aux usagers une protection supplémentaire contre les escroqueries du type 'spam' ou 'phishing'", selon un communiqué. Le "phishing" est une pratique frauduleuse proposant de faux liens aux clients de banques afin de les pousser à révéler leurs coordonnées personnelles. "Nous créons cette nouvelle catégorie (d'e-mails recommandés) pour que les destinataires puissent être assurés qu'ils reçoivent des courriels sûrs de la part d'expéditeurs légitimes", indiquait récemment Richard Gingras, PDG de Goodmail Systems. D'après AOL, le système de "timbrage" des mails d'entreprises constitue le premier service payant proposé aux expéditeurs d'envois en masse, le groupe assurant que ceux-ci pourront continuer de préférer la gratuité. Le New York Times et la Croix-Rouge américaine figurent parmi les premières sociétés à adopter le "timbrage" des e-mails. D'après AOL, les courriels arrivant avec la mention "recommandé" coûteront à l'expéditeur 0,25 à 1 cent l'unité (selon le volume envoyé) et ne s'adresseront qu'aux usagers de sa propre messagerie. Les expéditeurs doivent promettre de ne contacter que des personnes ayant accepté au préalable la réception de leurs messages. Après le cyclone Katrina, a ajouté Nicholas Graham, "on a observé une augmentation des tentatives d'escroquerie" de la part d'expéditeurs subtilisant l'identité d'organismes caritatifs pour appeler aux dons pour les victimes. AOL et Yahoo!, qui ensemble représentent 50 % du marché du courriel aux Etats-Unis, assurent que la facturation des e-mails répond à la nécessité de partager les coûts pour fournir des systèmes de filtrage toujours plus efficaces. Nicholas Graham n'a pas dit dans quelle mesure les revenus seront partagés avec Goodmail. Selon Laura Koetzle, du cabinet Forrester Research, comme il est clair que les groupes internet ont d'abord un intérêt financier à faciliter ainsi la communication des entreprises, "ils doivent offrir aux consommateurs la possibilité de décliner" ces envois. Yahoo USAT
|
|
|
|
|
|
|
|
Le groupe d'électronique japonais Hitachi a annoncé avoir mis au point la plus petite puce électronique sans contact du monde, de 0,15 millimètre de côté et de 7 microns et demi d'épaisseur, capable de stocker et de transmettre des informations pour remplacer des codes à barres ou des cartes d'accès. Cette nouvelle puce bat le record de la mu-chip, déjà produite par Hitachi en deux versions successives de 0,4 et 0,3 mm de côté. Elle en garde toutes les caractéristiques techniques malgré la réduction de taille. La miniaturisation permet d'augmenter le nombre de puces produites à partir d'une galette de silicium et de réduire les coûts de fabrication, selon Hitachi. Le groupe pourra ainsi plus facilement répondre à des commandes en gros volume et faire des économies d'échelle. Cette puce minuscule, à peine visible, est conçue pour être intégrée dans une étiquette en papier ou en plastique. Depuis la première du genre de chez Hitachi en février 2003, la marque a donc pu diminuer par quatre la taille globale de la puce RFID, et par huit son épaisseur. L'avantage est de multiplier le nombre de puces produites sur un même wafer, permettant ainsi d'augmenter la production tout en réduisant son coût final. Cette puce RFID est aussi appelée « puce sans contact », car elle utilise une technologie de communication sans fil, par micro-ondes sur une fréquence de 2,45 GHz. La puce transmet alors un signal unique, correspondant à une clé d'identification codée sur 128 bits. Les données inscrites dans la puce sont en lecture seule (ROM), et ne peuvent pas être modifiées. Elle peut ainsi remplacer un code à barre en stockant les informations relatives à un produit (type, date et lieu de fabrication, parcours emprunté...) pour en faciliter et fiabiliser la traçabilité. Elle peut aussi être insérée dans des cartes de transport ou dans des badges d'entrée. La précédente mu-chip était par exemple intégrée dans les tickets des visiteurs de l'exposition universelle d'Aïchi (centre du Japon) en 2005. Ce type de circuit intégré échange des informations à faible distance avec un lecteur spécifique. Elle est capable de transmettre des données par une liaison sans fil, recevant l'énergie nécessaire par induction électromagnétique grâce à l'antenne filaire ultra-fine qui l'entoure. Hitachi
|
|
|
|
|
|
|
|
IBM affirme avoir mis au point une puce capable de communiquer sans fil à une vitesse 10 fois supérieure aux dernières technologies WiFi actuelles. La technologie est encore en plein développement, puisque le spectre de fréquence utilisé n'est même pas encore officiellement sous licence d'exploitation. La puce est produite par IBM grâce à une technologie baptisée « silicon germanium », qui lui permet de monter dans les très hautes fréquences radio, vers les 60 GHz. Le spectre radio permettrait alors une communication bien plus rapide en termes de transferts de données, par rapport aux fréquences actuelles de communication du WiFi, de 2,4 ou 5 GHz. Le standard WiFi fixé pour cette bande de fréquences est le IEEE 802.15.3c. Le prototype d'IBM permet alors d'atteindre des débits impressionnants sans fil, de 630 Mbit/s. IBM assure que la même technologie pourra monter dans quelques années à 1 Gbit/s, et même 5 Gbit/s. Les chercheurs d'IBM ont présenté leur trouvaille lors de la conférence ISSC de San Francisco. La technologie silicon germanium permet aussi d'intégrer dans la puce ses antennes de communication, réduisant ainsi le coût final du système. Par exemple, le prototype d'IBM intègre un transmetteur, un récepteur, et deux antennes, le tout sur la surface d'une petite pièce de monnaie. La puce pourrait servir à nombre d'applications, tant professionnelles que domestiques. Déjà plusieurs constructeurs sont sur le coup d'après IBM, qui n'a pas précisé de nom pour l'instant. IBM
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les énergies renouvelables ont effectué un bond spectaculaire en 2005, mais le potentiel de la France doit lui permettre de faire beaucoup mieux et de combler dans les cinq ans son retard par rapport à ses voisins européens. En un an, l'éolien a effectué un bond de plus de 90 %, les chaudières à bois individuelles ont littéralement explosé avec une augmentation de 127 %, de même que les chaufferies solaires individuelles (+ 70 % vendues), selon un bilan de l'Agence pour le développement et la maîtrise de l'énergie (Ademe). "Le phénomène nouveau, c'est que quasiment toutes les filières décollent avec force: on attendait ça depuis dix ans", a indiqué à l'AFP le président du Syndicat des énergies renouvelables (SER), André Antolini, qui attribue le phénomène à la fois à la hausse des prix du pétrole et aux incitations fiscales. L'acquisition ou le raccordement à un système de production d'énergie renouvelable dans les habitations principales a bénéficié d'un crédit d'impôt de 40 % en 2005 et il sera de 50 % cette année. Les citoyens, selon l'Ademe, commencent aussi à se mobiliser face aux perspectives du réchauffement climatique dû aux gaz à effet de serre, principalement la gaz carbonique (CO2), dégagés par l'usage des énergies fossiles (gaz, pétrole, charbon). Aujourd'hui, 14 % de l'électricité en France, 19 % du chauffage (bois) et 1% seulement des carburants (diester, bioéthanol...) sont de source renouvelable. Pour l'électricité, il s'agit essentiellement de production hydraulique. "Avec 5,4 M de maisons individuelles chauffées tout ou partie au bois sur 13 millions, ce sont 7,8 M de tonnes de CO2 évitées", note Jean-Louis Bal, directeur des Energies renouvelables de l'Ademe. "Avec 6,2 M de maisons, sur 16 M en 2020, nous économiserions 9,8 M t de CO2". Pour la production d'électricité, la France peut compter sur l'éolien puisqu'elle dispose, selon M. Bal, d'un potentiel théorique pouvant assurer jusqu'à 30 % de la consommation. "La France constitue le deuxième gisement potentiel de l'UE en éolien grâce à ses nombreuses façades maritimes", renchérit le président du SER. Mais les dernières statistiques européennes publiées par la filière (EWEA) montrent qu'avec une puissance d'un peu moins de 1.000 MW installés, l'hexagone figure en 9e place, loin derrière l'Allemagne ou l'Espagne (respectivement 18.428 MW et 10.027 MW). "La France est globalement à la traîne, mais si les tarifs révisés d'ici la fin du premier trimestre sont convenables, les conditions seront réunies pour qu'elle rattrape son retard dans les cinq prochaines années", estime M. Antolini. La dernière révision tarifaire date de 2001, rappelle-t-il, promettant que "si les objectifs sont tenus, en 2010 le secteur des énergies renouvelables aura créé 75.000 emplois". Les biocarburants pourraient aussi décoller avec la hausse des prix des produits pétroliers : "Notre filière devient compétitive", se réjouit Alain Jeanroy, coordinateur de la filière Bioéthanol. Selon lui, la France était en retard mais elle s'est fixée des objectifs désormais plus ambitieux que ceux de l'UE : les biocarburants devront atteindre 5,75 % de la consommation dès 2008 (2010 pourl'UE), 7 % en 2010 et 10 % en 2015. "La France, assure M. Jeanroy, pourra devenir leader au sein de l'UE. Pour tenir l'objectif de 2008, il suffira de mobiliser 5 à 6 % des surfaces céréalières existantes et 10 % de celles des betteraves". AFP
|
|
|
|
|
|
|
|
Une technique de production d'énergie à partir de charbon, mais sans le brûler, est actuellement développée au sein du département Chemical Engineering (génie chimique) de l'Université de Cambridge. L'intérêt principal de cette méthode est que les émissions de carbone pourraient être facilement capturées et stockées. Le charbon est en train de faire son grand retour pour la génération d'électricité. En effet, les réserves sont énormes (160 ans contre 70 et 40 ans pour le gaz et le pétrole d'après le World Coal Institute) et ainsi son potentiel est particulièrement élevé pour des pays tels que la Chine et l'Inde. Cependant, son pouvoir calorifique (énergie qu'il dégage lors de la combustion) est bien plus faible que celui du gaz naturel. De plus, il produit beaucoup plus de dioxyde de carbone par unité d'énergie produite. Ceci explique l'intérêt actuel pour la recherche sur les technologies de "charbon propre" (par exemple le futur centre de recherche Futurgen aux Etats-Unis). La technique utilisée ici pour la production d'énergie propre avec du charbon est appelée chemical looping. Elle consiste à utiliser un même réacteur pour différentes réactions les unes à la suite des autres. Les chercheurs utilisent un réacteur à lit fluidisé dans lequel une épaisse couche de granules est traversée par du gaz à haute pression. Dans le cas présent, cette couche consiste en des grains de solide poreux comme de l'oxyde d'aluminium ou de titane, recouverts d'une couche de grains d'oxyde de cuivre. Dans un premier temps le lit est fluidisé par de la vapeur d'eau portée entre 800 et 1 000.C et de la poudre de charbon est injectée dans le réacteur afin qu'elle se mélange avec les granules d'oxydes de cuivre. La vapeur d'eau réagit avec le carbone du charbon pour former du gaz de synthèse (un gaz à l'eau CO + H2). Ce procèdé est connu sous le nom de gazéification du charbon et est utilisé depuis plusieurs années dans certains pays. En général, le gaz de synthèse est brûlé dans une turbine à gaz ou un moteur à combustion interne pour produire de l'électricité et, parfois, de la chaleur. Néanmoins, les émissions produites sont similaires à celles des autres hydrocarbures. L'étape suivante du procédé, qui se produit presque simultanément, voit les deux composants du gaz de synthèse, le monoxyde de carbone et l'hydrogène, réagir avec l'oxyde de cuivre : l'H2 est alors transformé en vapeur d'eau et le CO en CO2. Selon les chercheurs, de nombreux oxydes métalliques peuvent provoquer ces réactions mais seul l'oxyde de cuivre permet de plus la libération de chaleur à partir d'hydrogène et de monoxyde de carbone. Au bout d'un certain temps, les chercheurs arrêtent l'injection de charbon dans le réacteur : ils laissent ainsi le charbon encore présent dans le réacteur se gazéifier, puis réagir en utilisant l'oxygène encore présent dans l'oxyde de cuivre. Une fois le processus achevé, la vapeur d'eau injectée dans le réacteur est remplacée par de l'air chaud dont l'oxygène se combine avec le cuivre pour régénérer l'oxyde. Le processus peut à nouveau recommencer. Le chemical looping décrit ici a été d'abord mis en place à l'Université de Chalmes à Goteborg (Suède), mais seulement avec du gaz naturel et du méthane. Selon les scientifiques britanniques c'est la première fois que les hydrocarbures solides sont utilisés. Des perspectives sont ouvertes pour l'application de cette technique à la biomasse. Le projet, supervisé par le Dr John Dennis, va entrer en phase pratique. Un prototype est actuellement en construction. BE The Engineer
|
|
|
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Jusque l'an dernier, tout collégien connaissait la réponse : neuf. Mais la découverte de la mystérieuse 2003 UB313 a déclenché une polémique parmi les astronomes, qui s'interrogent désormais sur la notion même de planète. Après Mercure, Venus, la Terre, Mars, Jupiter, Saturne, Uranus, Neptune et Pluton, faut-il se faire à l'idée que le Soleil compte une planète de plus ? La nouvelle venue semble, après tout, plus grosse que Pluton, même si sa taille exacte fait encore l'objet de débats dans la communauté scientifique. Le danger, souligne sur son blog l'astronome Mike Brown, l'un des auteurs de la découverte de juillet 2005, c'est qu'en retenant ce seul critère de taille, on ne sait pas où l'on s'arrête. La famille des planètes solaires pourrait alors continuer à s'étoffer sensiblement dans les années à venir. L'erreur initiale était peut-être d'avoir inclus Pluton parmi les planètes. Les quatre planètes les plus proches du soleil sont en effet des corps rocheux, à la taille relativement modeste. Les quatre suivantes sont des géantes gazeuses. Toutes suivent une orbite circulaire autour du Soleil. En revanche, Pluton et 2003 UB313 sont totalement différentes : elles sont largement composées de glace et suivent une orbite très excentrique autour de notre astre. Pluton peut s'en rapprocher jusqu'à 4,4 milliards de kilomètres et s'en éloigner de 7,4 mds de km. 2003 UB313 - un nom plus seyant est à l'étude - oscille entre 5,7 mds de km et 14,5 mds de km du Soleil. Dans le jargon des astronomes, ce sont d'abord des "objets de la ceinture de Kuiper", cette frange lointaine du système solaire qui abrite des dizaines de milliers d'astéroïdes glacés, vestiges de la formation du Système solaire. Dans un article à paraître dans le magazine scientifique Nature, une équipe d'astronomes allemands menés par Frank Bertoldi (Université de Bonn) évalue à 3.000 kilomètres le diamètre d'UB313, contre 2.300 km pour Pluton. "Puisque UB313 est décidément plus grand que Pluton, il devient de plus en plus difficile de justifier qu'on puisse appeler Pluton une planète, si UB313 ne reçoit pas ce statut", souligne M. Bertoldi. M. Brown, qui travaille à l'Institut de technologie de Californie (CalTech), avait estimé la taille de son bébé, au moment de sa découverte, à "une fois et demie" celle de Pluton. Sur la base de nouvelles observations, il pense désormais que UB313 n'est que légèrement plus grande que Pluton, de l'ordre de 1 %. Mais priver Pluton de son statut de planète ne sera pas chose facile, d'autant que les Etats-Unis y sont très attachés : Pluton est la seule planète découverte par un des leurs : l'astronome Clyde Tombaugh, en 1930. Pour M. Brown, le débat pourrait être tranché en reconnaissant qu'une planète est une notion culturelle et non scientifique. Jusqu'à Pluton, on aurait des planètes. Après ce ne seraient que des "objets" célestes. On pourrait aussi choisir de ne retenir que les corps transneptuniens plus gros que Pluton. D'autres proposent de classer comme planètes les corps célestes ronds, les astéroïdes ayant généralement une forme irrégulière. "La discussion, même si elle fait dépenser beaucoup d'énergie, a un intérêt à peu près nul du point de vue scientifique, faute de définition précise de ce qui distingue une petite planète d'un gros astéroïde", souligne l'astronome français Bruno Sicardy, un spécialiste de Pluton. "C'est quoi la différence entre un gros caillou et un rocher ?", s'interroge-t-il. Wanadoo
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
A partir d'un virus responsable du rhume commun, des Américains ont développé un nouveau type de vaccin contre H5N1. Testé avec succès chez la souris, il n'est pas comme les vaccins anti-grippe classiques produits sur oeuf embryonné. Aux CdC d'Atlanta (Centres de contrôle des maladies), et à la Purdue University de West Lafayette dans l'Indiana, les Dr Sambhara et Mittal ont génétiquement modifié un adénovirus pour produire une hémagglutinine de type H5NA. Ils l'ont injectée à un groupe de souris tandis que d'autres recevaient simplement du sérum physiologique. Toutes ont ensuite été contaminées par des souches de virus H5N1 prélevées sur les cas observés au Vietnam en 2003 et 2004. "Cela prend environ 6 mois pour faire un vaccin classique à partir d'oeufs, rappelle l'un des chercheurs, Suryaprakash Sambhara. "Quatre milliards d'oeufs embryonnés seraient nécessaires pour fournir de quoi vacciner 1,2 milliard de gens à risque dans le monde", écrit-il dans Lancet. En cas de pandémie d'origine aviaire, se procurer des oeufs pourrait devenir problématique car les virus H5N1, hautement pathogènes, tuent les volailles. L'équipe de M. Sambhara (CDC, Atlanta) et Suresh Mittal (Purdue University) a utilisé un virus du rhume banal, rendu inoffensif (un adénovirus défectif) et génétiquement modifié, pour produire un composant majeur du H5N1, une protéine appelée hémagglutinine (H5HA). Cette dernière comporte une partie stable commune à différentes souches de H5N1. Les chercheurs ont administré ce vaccin à des souris, puis leur ont inoculé de grandes quantités de virus. Ils ont constaté que les rongeurs immunisés, en dépit de relativement faibles niveaux d'anticorps neutralisants contre les virus H6N1 Hongkong 2003 et Vietnam 2004, étaient protégés contre ces virus (ainsi que contre le Hong Kong 97 ayant servi à fabriquer le vaccin). Outre l'absence de mortalité, "parmi les animaux vaccinés, il y a eu un minimum de perte de poids et de morbidité, sans effets secondaires indésirables", relève M. Sambhara . Ce prototype-vaccin mobilise en effet une variété spécifique de bataillons de globules blancs du système immunitaire, des cellules CD8 T, qui aident l'organisme à se débarrasser du virus. Les auteurs ont alors constaté qu'en dépit d'un taux d'anticorps relativement faible, les souris traitées " n'étaient pas mortes et n'avaient pas perdu de poids ". Ce qui revient à considérer qu'elles étaient immunisées. Comparé aux vaccins antigrippaux classiques, le nouveau produit n'agirait pas de la même façon. Il entraînerait notamment la production de lymphocytes T spécifiques, " qui aident à éliminer le virus ". En observateur attentif, le Dr Luc Hessel, Directeur des Affaires médicales Europe d'Aventis Pasteur-MSD -premier producteur mondial de vaccins- souligne qu'" il s'agit d'une technique très élaborée. Elle s'inscrit sur le long terme d'autant que nous ignorons encore si elle peut être appliquée à l'homme. Cette étude est toutefois très prometteuse puisqu'on se libère enfin de la notion de culture de virus ". Rappelons en effet, que les vaccins antigrippaux traditionnels sont conçus à partir d'oeufs embryonnés de poules. La technique est rodée certes, mais non sans contraintes. Elle étale notamment les délais de fabrication de vaccin sur une période de 4 à 6 mois. Et pour cause : pour fabriquer 1,2 milliard de doses, il est nécessaire de disposer de... 4 milliards d'oeufs embryonnés ! Voilà qui fait peser une lourde hypothèque sur la réactivité des producteurs. D'autant plus que H5N1 est hautement pathogène chez la poule, de sorte que la disponibilité en masse de ces oeufs pourrait être compromise. Lancet BBC
|
|
|
|
|
|
|
|
La maladie d'Alzheimer pourrait avoir des causes génétiques dans au moins 80 % des cas, selon une étude publiée par les Archives of General Psychiatry, le journal de l'Association médicale américaine. Jusqu'à présent, des facteurs environnementaux étaient privilégiés pour expliquer l'apparition de cette maladie qui se caractérise par une dégénérescence des cellules du cerveau, qui finit par entraîner une démence touchant 2 à 3 % des personnes de 65 ans, tandis que la prévalence parmi les personnes de 85 ans oscille entre 25 et 50 %. Cette vaste étude est le résultat de recherches menées depuis 1998 sur le patrimoine génétique de 11 884 paires de jumeaux suédois, dont 392 paires au sein desquelles un ou deux des jumeaux souffraient de la maladie d'Alzheimer. La professeure Margaret Gatz, de l'université de Californie du Sud à Los Angeles (USC), qui a dirigé les travaux souligne que cette étude a mis en lumière l'importance considérable des facteurs génétiques dans l'apparition de la maladie, y compris dans les cas où l'on pouvait penser que seuls des facteurs environnementaux étaient impliqués. Selon cette étude, les facteurs génétiques, après ajustement des variables liées à l'environnement, expliqueraient 79 % des cas de maladie d'Alzheimer, sans différence notable entre hommes et femmes.. "Cela semble vouloir dire qu'il y a une cause génétique" à la maladie, a ajouté Mme Gatz, qui précise cependant que le rôle de certains facteurs liés à l'environnement reste important (mode de vie, infections) dans le déclenchement de la maladie et qu'agir précocement sur ces facteurs peut prévenir ou retarder de manière efficace l'apparition de la maladie. AGP
|
|
|
|
|
|
|
|
Des chercheurs français et suisses ont montré qu'une molécule déjà utilisée pour limiter le rejet de greffe pourrait être efficace contre la maladie de Huntington. Cette maladie génétique est due à la mort accélérée de neurones dans une partie du cerveau appelée le striatum. Le gène responsable de la maladie produit une protéine, la huntingtine, dont une forme mutante provoque la maladie en s'accumulant dangereusement dans les neurones. L'équipe de Raùl Pardo et Emilie Colin (Institut Curie) a découvert qu'une autre protéine, la calcineurine, présente en grande quantité dans le cerveau, augmentait la toxicité de la huntingtine mutante. Ils ont également montré in vitro que la molécule FK-506 inhibait la calcineurine et contrait ainsi l'action de la huntingtine sur les neurones, empêchant la mort des cellules nerveuses du striatum. Ces travaux sont publiés dans le Journal of Neuroscience. Les chercheurs espèrent que cette piste thérapeutique pourra être rapidement testée chez l'homme, sachant que la molécule FK-506 est déjà utilisée. La chorée de Huntington affecte environ 6.000 personnes en France mais concerne quelque 12.000 porteurs du gène muté encore asymptomatiques. La maladie se traduit par des mouvements incontrôlés et saccadés des membres, des problèmes mentaux et évolue vers la démence et la mort en 15 à 20 ans. S&A
|
|
|
|
|
|
|
|
Certains médicaments prescrits couramment chez les personnes âgées, notamment dans l'incontinence urinaire, la maladie de Parkinson, la dépression et l'anxiété, peuvent entraîner un dysfonctionnement intellectuel réversible comparable à un début de maladie d'Alzheimer, selon des chercheurs de l'Institut national de la santé et de la recherche medicale (Inserm). Ces anomalies qui affectent notamment le temps de réaction, la mémoire immédiate ou différée, ou le langage, "miment la première phase de la maladie d'Alzheimer que les laboratoires pharmaceutiques cherchent à traiter de manière préventive", a déclaré Karen Ritchie qui dirige l'équipe Inserm 361 "Pathologies du système nerveux : recherche épidémiologique et clinique" à Montpellier. Chez les personnes âgées, explique-t-elle, la réversibilité des troubles cognitifs risque de mettre "plus longtemps" que chez les jeunes, "du fait notamment de la plus grande perméabilité de la barrière cerveau-sang et de l'accumulation de ces médicaments" Les médicaments incriminés, dits anticholinergiques, sont des inhibiteurs potentiels de la transmission, dans le cerveau, de messages chimiques ou neurotransmetteurs, comme l'acétylcholine, impliquée notamment dans la mémoire ou l'apprentissage. Au total 372 personnes âgées de plus de 60 ans ne présentant pas de démence ont été suivies. Environ 10 % d'entre elles prenaient des médicaments anticholinergiques depuis au moins un an. Selon les résultats, les consommateurs de ces médicaments montraient des capacités cognitives moins bonnes, comparées aux personnes non-consommatrices : 80 % présentaient des altérations des capacités intellectuelles modérées (contre 35 % dans le groupe des non-consommateurs), sans qu'une démence n'ait pu être mise en évidence. "Les médecins doivent être sensibles à ce fait, et interroger la personne. Si la prise du médicament ne lui pose aucun problème dans la vie quotidienne, il n'y a rien à faire. Dans le cas contraire, des alternatives existent pour la plupart de ces médicaments,", a souligné Karen Richtie. BMJ
|
|
|
|
|
|
|
|
Le cancer a tué 7,6 millions de personnes dans le monde l'an dernier, soit 13 % du total des décès, et 84 millions en mourront dans les dix ans à venir si rien n'est fait, a averti l'OMS à l'occasion de la Journée mondiale contre le cancer. L'Organisation mondiale de la santé (OMS) propose de réduire les taux de décès par maladie chronique de 2 % par an entre 2006 et 2015, ce qui permettrait d'éviter plus de 8 millions de décès par cancer. Elle souligne que 40 % des cancers sont évitables. Selon le Dr Catherine Le Galès-Camus, sous-directeur général de l'OMS chargé des maladies non transmissibles, il est urgent de "combler l'énorme fossé entre pays développés et en développement pour tout ce qui touche à la prévention, au traitement et aux soins dans le domaine du cancer ". En effet, souligne l'OMS dans un communiqué, plus de 70 % de tous les décès par cancer sont enregistrés dans des pays à faible revenu ou à revenu intermédiaire. Dans ces pays, la mauvaise hygiène de vie (alimentation trop riche en sucres, sel et graisse, tabagisme, sédentarité), qui était auparavant l'apanage des pays industrialisés, tend à se répandre. Le tabagisme à lui seul est à l'origine d'environ 1,5 million de décès par cancer chaque année. A cet égard, l'OMS considère comme "une étape majeure" l'entrée en vigueur en 2005 de sa Convention internationale anti-tabac. Par catégories, le cancer du poumon provoque 1,3 million de décès par an, celui de l'estomac près d'un million, le cancer du foie 662.000, celui du colon 655.000 et le cancer du sein 502.000. L'Organisation mondiale de la Santé (OMS) estime que plus de 40 % des cancers sont évitables et a proposé l'objectif mondial d'une réduction des taux de décès par maladie chronique de 2 % par an de 2006 à 2015. On pourrait ainsi éviter plus de 8 millions de décès par cancer sur les 84 millions prévus durant la prochaine décennie. OMS
|
|
|
|
|
|
|
|
Deux études menées chez des obèses ont comparé un régime appauvri en hydrates de carbones à un autre, plus traditionnel, limitant calories et graisses. Si le premier s'est avéré plus efficace à court terme, tous deux paraissent se valoir sur le long terme. L'obésité est devenue dans les pays développés un sujet d'inquiétude majeur. Sa prévalence aux Etats-Unis a doublé au cours des vingt dernières années... parallèlement à l'augmentation de l'apport calorique et de la sédentarité. Aujourd'hui, près de deux adultes américains sur trois sont en surpoids, plus de 30 % sont obèses, et enfin 8 % sont diabétiques ! Voilà pourquoi le désir de maigrir est si présent outre-Atlantique... Deux études publiées dans le " New England Journal of Medicine " apportent justement quelques éclaircissements sur l'efficacité du régime appauvri en hydrates de carbones, le régime le plus pratiqué aux Etats-Unis. Dans les deux études, des sujets obèses ont suivi soit un régime pauvre en sucres et donc riche en protéines et en graisses, soit un régime limitant les apports caloriques sous forme de graisses à 30 % de la ration quotidienne. Les deux travaux montrent que pendant les six premiers mois, la perte de poids s'avère plus importante avec le régime appauvri en sucres. Toutefois, elle reste faible au regard de l'excès pondéral au début du traitement. D'ailleurs, la différence entre les deux régimes s'estompe au-delà d'un an. Enfin, le taux d'abandon, près de 40 % dans les deux études, et la perte de poids globalement modérée illustrent la faible adhésion à ces deux types de régimes... NEJM
|
|
|
|
|
|
|
|
La France est déjà connue pour avoir la meilleure espérance de vie en Europe. Une nouvelle étude publiée dans le Bulletin épidémiologique hebdomadaire confirme son statut privilégié. S'appuyant sur les statistiques des décès en 2000 dans les 15 pays de l'Union européenne, une équipe de l'Inserm dirigée par Eric Jougla montre que le taux de mortalité des plus de 64 ans est le plus faible dans l'Hexagone, aussi bien pour les hommes que pour les femmes. Seulement 5 012 hommes et 2 938 femmes pour 100 000 personnes de plus de 64 ans sont morts en 2000 en France, contre 6 470 et 4 395 en Irlande, à la queue du peloton européen. Dans les 15 pays, les causes de décès les plus fréquentes sont les maladies cardio-vasculaires, suivies par les cancers, les maladies de l'appareil respiratoire, les maladies digestives et enfin les morts violentes (accident, suicide). Selon les chercheurs, les bons chiffres français traduiraient une sorte de sélection des personnes âgées qui n'auraient pas été adeptes étant plus jeunes de pratiques à risques, tels le tabagisme ou la consommation d'alcool. Car la France est aussi connue comme étant un très mauvais élève en matière de mort prématurée, c'est-à-dire survenant avant 65 ans et liée souvent à un de ces facteurs à risques. Autre cause avancée : le système de santé français serait particulièrement bien adapté pour traiter les maladies liées au vieillissement. Les nouveaux indicateurs devraient se révéler très utiles pour orienter les futures lois de santé publique, tant au niveau français qu'européen. Figaro
|
|
|
|
|
|
|
|
Une collaboration scientifique a permis de démontrer, grâce à la mise en place d'une étude rigoureusement contrôlée, les effets neurobiologiques de l'acupuncture sur différentes aires du cerveau. L'équipe, composée des Drs Mark Lythgoe (neurosciences, University College London), Aziz Ashghar (neuro-physiologue, Ecole de médecine de l'Université de Hull), Georges Lewith (université de Southampton) et Hugh McPherson (acupuncteur, Université de York), a développé le protocole suivant : chez un groupe de volontaires soumis à des acupunctures profondes, l'activité cérébrale était enregistrée par imagerie à résonance magnétique fonctionnelle (IRMf) et magnétoencéphalographie (MEG). Les résultats étaient ensuite comparés à ceux obtenus pour un groupe contrôlé étant soumis à des acupunctures superficielles. Il est important de noter qu'une acupuncture profonde correspond à une aiguille d'acupuncture insérée sur une profondeur d'environ 1 cm, après quoi le praticien induit une rotation de l'aiguille jusqu'à ce que l'effet "de chi" soit obtenu, un effet au cours duquel le patient ressent une sensation de picotement. Par comparaison, la puncture superficielle correspond à une aiguille insérée sous la peau sur environ 1 mm. Les résultats montrent des différences notables entre les deux groupes. Les punctures superficielles conduisent à une activation des aires motrices du cortex, résultat qui n'est pas inattendu puisqu'il s'agit des aires corticales généralement activées en réponse au toucher ou à la douleur. En revanche, les punctures profondes altèrent l'activité de zones plus profondes du cerveau, en particulier au niveau du système limbique (système impliqué entre autres dans l'olfaction, les émotions, l'apprentissage et la mémoire). De façon surprenante, cette zone est inhibée en réponse aux punctures profondes. Bien que cette observation soit pour le moins inattendue, elle est en accord avec ce que les supporters de l'acupuncture ont toujours annoncé, à savoir l'efficacité de cette thérapie dans la gestion de la douleur. Cette étude permettrait ainsi d'apporter la première pierre à la compréhension des mécanismes neurobiologiques impliqués et pourrait expliquer les bénéfices thérapeutiques de l'acupuncture. Le professeur Kathy Sykes, spécialiste de la communication de la science travaillant sur de nombreux projets et basée à l'Université de Bristol, présentera ces résultats dans un programme télévisé sur la BBC. University of Bristol BE
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Comment s'informer tout à la fois des propositions de logements de sa ville, du montant de ses aides, de la politique culturelle de la région et des domaines d'action des associations locales ? Dans quelques villes pionnières en France, plutôt que de courir de service en service, la solution qui s'appelle Adeline (Accès DEmatérialisé Local aux Infrastrutures Nationales d'E-administration) est un programme conçu autour des événements majeurs de la vie d'un administré. Pour cette première phase d'expérimentation, c'est la thématique de l'emménagement qui a été retenue. Concrètement, tout nouvel arrivant à Franconville, Parthenay, Vandoeuvre-lès-Nancy, ou Rennes, est invité à se rendre sur le site Internet de la collectivité où une rubrique lui est désormais tout spécialement consacrée. Selon les éléments qu'il souhaite déclarer (marié, avec deux enfants, en recherche d'emploi...), l'administré peut accéder à partir du site de la commune à l'ensemble des démarches et services en ligne disponibles pour lui tant au niveau national qu'au niveau local. Il peut imprimer une liste lui permettant de distinguer, ainsi qu'au reste de sa famille, les démarches effectuées de celles restant à accomplir. Par ailleurs, les éléments renseignés sont mémorisés pour ses prochaines connexions au site. Enfin, à terme, à partir du site de sa commune, l'utilisateur qui désire se rendre sur celui de la CAF (Caisse d'allocations familiales) pourra être immédiatement reconnu en y arrivant. Parthenay Vandoeuvre
|
|
|
|
|
|
|
|
L'Etat est mobilisé sur le développement des moyens de paiement alternatifs au chèque -prélèvement, TIP ou carte bancaire - dans la sphère publique, en apportant son appui aux initiatives locales. Les engagements pris sont respectés et seront amplifiés : -* En 2005, le Trésor public a équipé 320 nouvelles trésoreries spécialisées dans l'encaissement de recettes publiques locales. Il poursuivra cet effort en 2006. -* Les deux plans d'actions lancés à titre expérimental, en 2005, dans la Sarthe et la Seine-Saint-Denis sont un succès. Ainsi, par exemple, tous les offices publics HLM offrent-ils désormais la possibilité de payer les loyers par prélèvement. Le Trésor public généralise dès maintenant cette démarche pro-active auprès des collectivités locales. Toute collectivité qui souhaite mettre en place un projet de paiement alternatif au chèque trouvera auprès du Trésor public l'appui nécessaire en terme de conseil et d'expertise. -* Dès aujourd'hui, afin de faciliter le développement de l'encaissement par carte bancaire dans les services publics locaux, l'Etat appliquera une baisse de 50 % du coût lié à ces transactions. D'autre part, il prend en charge 30 % du coût d'achat et d'installation des 1000 premiers terminaux de paiement électronique (TPE) mis en place par des collectivités locales dans le cadre des plans d'actions départementaux d'ici la fin juin 2006. Cette démarche est confortée par la signature, avec l'AMF et de l'ADF, d'un protocole où chacun s'engage à assurer la promotion des moyens de paiement alternatifs au chèque. Minéfi
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|