|
|
|
|
|
NUMERO 581 |
|
|
|
|
|
|
|
Edition du 20 Janvier 2011
|
|
|
|
|
Edito
CES 2011 : mobilité, convergence et 3 D
De l'avis général, le CES 2011 restera comme un excellent cru et a consacré trois tendances majeures de l'économie numérique : la mobilité, la convergence/polyvalence et la montée en puissance irrésistible de la 3D. Les tablettes multimédias ont déferlé sur ce salon de la high tech à Las Vegas. Parmi les dizaines présentées, deux se sont particulièrement démarquées : la Motorola Xoom, équipée d'un écran de 10 pouces et du futur système d'exploitation Android Honeycomb, et la tablette canadienne BlackBerry Playbook, équipée d'un écran de 7 pouces et du système QNX. Motorola a fait forte impression avec sa tablette numérique Xoom, tournant sous Android, qui a obtenu une multitude de récompenses. Avec son écran tactile de 10 pouces, son microprocesseur de 1 Gigahertz, sa mémoire interne de 32 Go et ses deux caméras HD à l'avant et à l'arrière, l'iPad a désormais un vrai concurrent et 700.000 exemplaires ont déjà été commandés rien qu'aux Etats-Unis ! Motorola, décidemment très en forme, a également obtenu la palme du meilleur Smartphone pour son Atrix 4, capable de rivaliser avec un ordinateur portable avec sa puce double coeur à 1 GHz, sa mémoire vive de 1 Go et ses 48 Go de stockage. Grâce à un module baptisé LapDock, ce smartphone se transforme en véritable netbook. L'utilisateur peut alors utiliser la puissance du Atrix pour naviguer sur Internet, taper des mails, visionner des vidéos... directement à partir du LapDock. En effet, le LapDock est dénué de tout système d'exploitation et de tout composant électronique, et fonctionne uniquement à partir de l'Atrix, employant ce dernier comme unité centrale. Motorola souhaite ainsi améliorer considérablement le confort d'utilisation par rapport au smartphone concernant certaines utilisations spécifiques, et aboutir à une convergence smartphone/netbook. Ceux qui étaient encore sceptiques à l'égard des prétentions de Google concernant son système d'exploitation pour téléphones intelligents de Google on pu constater que la quasi-totalité des téléphones présentés au CES de Las Vegas tournait sous Android, tout comme une bonne partie des tablettes et appareils divers, comme l'autoradio Asteroid de Parrot et le lecteur multimédia portatif Galaxy Player de Samsung. Cette menace n'a pas échappé à Microsoft qui veut absolument reprendre la main et a confirmé sa nouvelle stratégie « coopérative » visant à s'imposer dans l'internet mobile. Microsoft a annoncé de nouvelles collaborations avec plusieurs groupes de microprocesseurs spécialisés dans les puces adaptées aux appareils portables, ARM, Nvidia, Qualcomm et Texas Instruments, au-delà de son partenaire de longue date Intel, et d'AMD. Microsoft a en effet dévoilé que le prochain Windows sera capable de fonctionner sur des System on a Chip (SoC), ces « systèmes sur puce » qui équipent les smartphones et les tablettes tactiles. Le virage stratégique est clair : étendre l'utilisation de Windows à tous les types de terminaux numériques et à toutes les applications. Si Microsoft doit encore convaincre pour s'imposer dans les smartphones et tablettes, il a réussi son pari dans les jeux vidéos avec le nouveau système Kinect permettant de jouer sans manette à la console XBox 360 : M. Ballmer a annoncé que ce système s'était vendu à huit millions d'exemplaires entre novembre et décembre, pulvérisant ses prévisions de 5 millions. "Depuis six mois, la XBox 360 est chaque mois la console la plus vendue ici aux Etats-Unis. Et les ventes de la XBox dépassent maintenant les 50 millions d'unités dans le monde", a souligné M. Ballmer. Le grand rival de Microsoft, Google, est pour sa part fermement décidé à devenir l'acteur majeur et incontournable de la convergence internet-télévision. Il a présenté un système d'exploitation destiné à être intégré aux téléviseurs connectés. Le système est puissant, souple et facile d'utilisation. Il permet de retrouver n'importe quelle vidéo, de programmer des enregistrements et bien sûr de naviguer sur Internet. Les tablettes numériques hybrides et polyvalentes ont également relancé un secteur qui patine depuis des années : la domotique. Il suffit que les autres appareils d'une maison fonctionnent avec des technologies d'échange de données compatibles, comme le Wi-Fi, pour que la tablette devienne le terminal unique de contrôle et de commande de son habitation. Cette dernière fonction est d'ailleurs explorée par les fabricants de téléviseurs qui proposent des applications pour tablettes en alternative à leurs télécommandes, voire des tablettes complètes, comme l'a fait le japonais Panasonic. Enfin, dernière tendance, la 3D qui entre dans un nombre croissant d'appareils, comme le caméscope de poche Bloggie 3D de Sony et le téléphone intelligent 3D Galapagos de Sharp (réservé au marché japonais pour l'instant). Notons aussi l'arrivée des téléviseurs à technologie 3D passive, notamment la gamme Cinema3D de LG. Ceux-ci offrent une résolution d'image inférieure à celle qu'on obtient avec les téléviseurs actifs présentement sur le marché, mais ils nécessitent l'utilisation de lunettes bien plus abordables (quelques dollars seulement, contrairement aux 150 $ qu'il faut débourser pour une paire de lunettes actives) et plus confortables. Sony a présenté des caméscopes offrant la possibilité aux utilisateurs d'enregistrer des vidéos en full HD 3D. Le HDR-TD10E est le premier camescope «Double Full HD» 3D sur le marché. La caméra Bloggie de Sony a également été mise à jour en y ajoutant des capacités d'enregistrement 3D. Autre nouveauté, les premiers écrans 3D sans lunettes commencent à débarquer sur les téléphones portables. Autant sur les grandes tailles d'écrans (comme les téléviseurs), l'efficacité reste à prouver, autant sur des tailles inférieures à 10 pouces, l'effet est plus que correct. LG a annoncé un modèle qui devrait utiliser cette technologie. Sharp a montré une tablette sous Android utilisant un écran en relief sans lunettes. La technologie est similaire à celle que l'on rencontre sur la Nintendo DS 3D. Ces écrans, qui peuvent aussi afficher de la 2D, prouveront leur utilité dans des tablettes destinées aux joueurs, un public féru de 3D. La petite console de jeu DS de Nintendo est l'un des rares appareils à offrir de la 3D sans lunettes, mais à en croire Jen-Hsun Huang, le patron fondateur des puces graphiques Nvidia, dans trois ou quatre ans la 3D sera partout sur les téléphones portables. En intégrant, via le Web, le téléphone, l'ordinateur et le téléviseur dans un objet unique, polyvalent, intuitif et intime car suffisamment compact et léger pour être emmené partout, les tablettes numériques sont en train de bouleverser le paysage numérique. Reliées en permanence au Web, elles seront bientôt dotées de la reconnaissance vocale et scripturale et d'écrans souples que l'on pourra plier et ranger dans sa poche, comme une feuille de papier. Elles supplanteront alors définitivement les ordinateurs tels que nous les avons connus jusqu'à présent et deviendront, grâce à leur mémoire gigantesque, nos « doubles » numériques nous permettant d'accéder à volonté aux multiples mondes virtuels qui composeront notre vie professionnelle et personnelle. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Depuis son invention dans les années 1960, l'holographie laser est sans égale pour reproduire avec une grande fidélité des images en trois dimensions. Son principe est le suivant : un premier faisceau laser est envoyé sur l'objet à photographier et un second sur une plaque photosensible. On enregistre alors la figure d'interférence formée entre les deux faisceaux : c'est l'hologramme. Une fois éclairé, celui-ci renvoie la lumière comme si elle provenait de l'objet réel, créant ainsi une image en relief sans avoir besoin d'utiliser de lunettes spéciales. Mais la technique présente une faiblesse : jusqu'ici, personne n'était parvenu à reproduire une scène animée par cette technique. Une équipe américaine vient enfin de réaliser cette première, réussissant à produire des images toutes les deux secondes . La clé de la réussite réside dans le matériau développé par les chercheurs : un nouveau polymère dit photoréfractif, c'est-à-dire dont l'indice de réfraction change là où il est illuminé par un laser. « Sur les films argentiques utilisés d'ordinaire pour l'holographie, les images sont fixées une fois pour toutes, explique Pascal Picart, physicien à l'école nationale supérieure d'ingénieurs du Mans. Mais ce nouveau matériau est, lui, réinscriptible. Les charges électriques qui le composent sont mobiles et se déplacent chaque fois à l'endroit irradié par le laser, créant ainsi un nouvel hologramme qui vient effacer le précédent. » Les polymères photoréfractifs sont l'objet de recherches depuis plusieurs années. Mais l'équipe américaine vient enfin de trouver la formule chimique parfaite. Pour cela, ils ont ajouté à l'intérieur du polymère des particules nanométriques à base de fullerènes, rendant le matériau ultrasensible et ultrarapide. Pour faire la démonstration de leur invention, les chercheurs ont filmé un objet en mouvement à l'aide de 16 caméras placées sous différents angles. Codées par un ordinateur, toutes les caractéristiques de la lumière réfléchie par l'objet ont ensuite été inscrites par un laser sur un écran de 25 centimètres de côté constitué du nouveau polymère. Et pour aller plus loin encore, les physiciens ont gravé non pas un mais trois hologrammes différents pour chaque image du film. Éclairé par trois diodes laser rouge, verte et bleue, l'écran a alors reproduit la séquence animée en relief mais aussi en couleurs. D'un relief saisissant, les images produites sont toutefois peu détaillées. Le groupe américain travaille d'ores et déjà à l'élaboration d'un écran plus large et doté d'une meilleure résolution. Des applications extrêmement séduisantes pourraient alors voir le jour. L'holographie pourrait ainsi détrôner les techniques actuelles de projection 3D, qui, parce qu'elles nécessitent de porter des lunettes, sont quelque peu boudées par le public. Le concept pourrait aussi permettre le développement de la « téléprésence ». La Recherche
|
|
|
|
|
|
|
|
L'objectif de The Charity Engine est d'offrir aux Organismes (Météo, Recherche, Médecine...) qui en ont besoin une puissance de calcul très au-delà de ce que peuvent fournir les plus puissants des Supercalculateurs et ce pour un prix très bas. Pour cela The Charity EngineTM utilise une « grille informatique » : en clair, l'ensemble des ordinateurs des particuliers qui sont volontaires pour être participants de la grille informatique. Des grilles existent déjà mais ne disposent que d'un nombre de participants limités, la difficulté étant de motiver les particuliers pour qu'ils deviennent participants du système. La proposition originale de The Charity EngineTM est, qu'au lieu de donner à chacun une maigre rétribution, un tirage au sort aura lieu régulièrement entre les participants pour déterminer qui sera l'heureux gagnant d'un million de dollars. En parallèle, à chaque tirage au sort, un million de dollars sera également reversé à un organisme caritatif. Ainsi, à chaque fois que The Charity EngineTM aura fait 2 millions de dollars de chiffre d'affaires, un tirage au sort aura lieu. Il y a seulement une décennie, un PC standard avait un microprocesseur cadencé à 300 Mhz et 64 Mo de mémoire, une spécification dépassée par un téléphone portable d'aujourd'hui. Il pouvait faire tourner des programmes comme Windows 98 et Office 97, mais avait très peu de ressources inutilisées. L'Internet de cette époque était cher et lent. Aujourd'hui, la situation s'est incroyablement améliorée. Un PC moderne est plus de 100 fois plus puissant que son homologue d'il y a dix ans et 2 milliards ce ces PCs sont désormais connectés sur un internet stable et très performant. Cependant, la majorité de ces PCs sont encore utilisés pour effectuer les mêmes tâches simples, n'utilisant qu'une très petite portion de la puissance de calcul offerte par leurs puissants processeurs. L'utilisation du microprocesseur d'un PC moderne n'est plus, en moyenne, que de 1%, ce qui signifie que 99 % de la puissance de calcul totale de l'Internet est inutilisée la plupart du temps. Techniquement, il est assez simple de faire travailler ensemble des millions de PCs, le véritable challenge est de convaincre les millions de propriétaires de ces PCs de travailler ensemble. Des réseaux de « calculateurs volontaires » à succès existent déjà, comme le célèbre projet SETI@home, qui figure dans le livre des records pour avoir effectué le plus grand calcul du monde et qui comptabilise 5 millions de volontaires qui ont donné l'équivalent d'un milliard de dollars de puissance de calcul depuis le début du projet en 1999. Cependant, et bien que la plupart de ces projets servent une bonne cause, moins d'un pour cent des utilisateurs de l'Internet ont accepté de donner volontairement une partie de la puissance de leur PC. Payer chaque utilisateur individuellement n'est pas une solution viable (cela a été tenté, la perspective de gagner moins d'un dollar par semaine n'est pas très motivante). C'est pour cela que The Charity EngineTM a mis au point une solution élégante pour inciter les propriétaires de PC à participer a la grille informatique. Au lieu de payer un million de participants un dollar par semaine, un tirage au sort aura lieu régulièrement qui déterminera qui sera le participant chanceux qui se verra attribuer un jackpot d'un million de dollars. Afin de participer a la loterie (et autoriser son ordinateur à effectuer des calculs pour les clients du Charity EngineTM), il suffit de télécharger un économiseur d'écran. Ainsi plus un ordinateur aura « travaillé » sur la grille, plus il aura de chance de gagner le prochain million de dollars. Une fois l'économiseur d'écran téléchargé, le processus est entièrement automatique, laissant toutefois aux utilisateurs la possibilité de contrôler quel pourcentage des ressources de leur machine ils souhaitent allouer à la grille. Par ailleurs, l'économiseur d'écran est extrêmement sécurisé à l'aide d'une clef informatique 2048 bits, le rendant virtuellement inviolable. Il est largement plus sûr de faire tourner The Charity EngineTM sur sa machine que d'utiliser MSN Messenger ou de surfer le web. Avec seulement 2 % des utilisateurs d'internet utilisant The Charity Engine, la grille sera 10 fois plus puissante que tous les supercalculateurs de la planète... combinés. Son apport à la recherche sur le climat, la médecine, la physique, l'ingénierie et l'informatique sera au-delà de toute comparaison. La grille informatique s'auto-répare, s'auto-améliore et est toujours allumée, gratuitement pour The Charity EngineTM. Ces trois facteurs à eux seuls font une solution économique plus viable que n'importe quel supercalculateur. De plus, d'un point de vue performance, cette solution est meilleure que l'utilisation de supercalculateurs en milieu fermé. Par ailleurs, l'aspect logiciel est un problème mineur pour la mise en place de grilles composées de volontaires. Le « Berkeley University Open-Source Infrastructure for Network Computing » (BOINC) est un logiciel open-source gratuit qui a fait ses preuves et permet de mettre ces grilles en place facilement. Développé a partir du projet SETI, BOINC est actuellement utilisé avec succès par une soixantaine d'applications scientifiques sur des millions de PC personnels. Innovate Chariy Engine
|
|
|
|
|
|
|
|
IBM vient de dévoiler les cinq technologies clés qui, selon le géant informatique, vont changer notre vie dans les cinq années à venir. 1-Les interactions en 3D Au cours des cinq prochaines années, les interfaces 3D vous permettront d'interagir avec les hologrammes 3D de vos amis en temps réel. L'image 3D débarque dans le grand public à travers le cinéma, la télévision ou les jeux vidéo. Les caméras 3D et holographiques vont se perfectionner et se miniaturiser pour s'embarquer dans les téléphones cellulaires. Vous serez en mesure d'interagir en 3D avec des photos, naviguer sur le Web et discuter avec vos amis. Les scientifiques travaillent à améliorer l'holographie pour mettre l'interaction 3D dans le chat vidéo et la téléprésence. Selon IBM, l'holographie est la technologie clé pour offrir dans l'avenir des interactions 3D réalistes. Cette technique utilise des faisceaux laser pour reconstruire l'image 3D d'un objet ou d'une personne, à la manière utilisée par les yeux humains pour visualiser notre environnement. Les scientifiques d'IBM Research travaillent sur de nouvelles façons de visualiser les données 3D, d'explorer l'intérieur des édifices, de simuler la façon dont les maladies se propagent à travers le monde... 2-Les batteries à air Qui n'a pas rêvé d'une batterie d'ordinateur portable capable de durer toute la journée sans nécessiter de recharge ? Au cours des cinq prochaines années, les avancées scientifiques dans les transistors et les batteries devraient décupler l'autonomie de vos appareils par rapport à aujourd'hui. Et mieux encore, dans certains cas, les piles risquent de disparaître complètement dans les appareils les plus petits. Les scientifiques travaillent sur des batteries qui utilisent l'air que nous respirons pour réagir avec un métal à haute densité énergétique. En cas de succès, le résultat sera une batterie plus légère et plus puissante, capable d'alimenter tout équipement, des voitures électriques aux appareils grand public. Une autre piste est d'éliminer tout bonnement les batteries dans les appareils à très faible consommation. IBM vise ainsi à réduire la tension d'alimentation des transistors à moins de 0,5 volts, ainsi que leur consommation. Avec une demande en énergie aussi faible, il serait possible de supprimer complètement la batterie dans certains appareils comme les téléphones mobiles ou les lecteurs de livres numériques. L'énergie nécessaire serait fournie à l'aide d'un système de collecte d'énergie dans l'environnement (mouvements corporels, secousses, chaleur...). Certaines montres utilisent aujourd'hui la chaleur corporelle ou les mouvements du bras pour s'alimenter en énergie. Le même concept pourrait être utilisé pour recharger les téléphones mobiles. Il suffirait de le secouer de temps en temps ! 3- Chaque personne, une source de données massives En cinq ans, les capteurs de votre téléphone, votre voiture, votre porte-monnaie et même vos tweets fourniront des données qui permettront aux scientifiques de construire une image en temps réel de votre environnement. Vous serez en mesure de contribuer à lutter contre le réchauffement climatique, sauver les espèces en voie de disparition ou pister les menaces qui pèsent sur les écosystèmes à travers le monde. Au cours des cinq prochaines années, toute une catégorie de ''citoyens scientifiques'' verra le jour, utilisant des capteurs simples qui existent déjà pour créer des ensembles massifs de données pour la recherche. Des observations simples, comme la constatation du premier dégel dans votre ville, l'apparition des moustiques, la coupure de l'eau courante, constituent de précieuses données pour les scientifiques. Même votre ordinateur portable peut être utilisé comme un capteur pour détecter l'activité sismique. Si elles sont correctement employées et connectées à un réseau d'ordinateurs, vos données peuvent aider à établir une carte d'un tremblement de terre, accélérer le travail des services d'urgence et sauver des vies. 4-Des trajets de transport personnalisés Au cours des cinq prochaines années, des technologies avancées d'analyse de trafic vous fourniront des recommandations personnalisées pour atteindre votre destination le plus rapidement possible. Les systèmes adaptatifs de trafic apprennent intuitivement des modèles de comportement des voyageurs pour mieux les guider dans leur intinéraire. Les chercheurs d'IBM mettent au point de nouveaux modèles qui permettront de prédire le trafic sur différentes voies de transport. Il suffira d'indiquer où vous êtes pour que des applications Web vous donnent une estimation du temps de trajet. En combinant l'analyse prédictive de l'information en temps réel sur le trafic et d'autres données, le système pourrait recommander de meilleures itinéraires pour se rendre à une destination : plutôt que de continuer en voiture, se rendre à un centre de transit de masse à proximité, si le train est prévu pour être à l'heure, et si le stationnement est possible à la gare. 5-Récupération de la chaleur des ''data centers'' Comment récupérer l'énergie consommée par les ''data centers'' ? Jusqu'à 50 % de l'énergie consommée par un ''data center'' moderne est engloutie par les systèmes de refroidissement des serveurs et des bâtiments. La plupart de la chaleur est alors perdue, car elle est juste évacuée dans l'atmosphère. Des nouvelles technologies, telles que le dispositif intégré de refroidissement à eau des puces électroniques développé par IBM, permettent de récupérer l'énergie thermique pour fournir de l'eau chaude aux bureaux ou aux particuliers. En s'appuyant sur cette technologie, un projet pilote en Suisse devrait générer jusqu'à 30 tonnes d'émissions de dioxyde de carbone par an en moins, soit une réduction de 85 % de l'empreinte carbone. Un réseau capillaire de refroidissement microfluidique l'intérieur d'un dissipateur thermique est fixé à la surface de chaque puce dans la grappe d'ordinateurs. L'eau de refroidissement circule à l'intérieur de canaux microscopiques gravés dans le semi-conducteur lui-même. En ayant le flux d'eau au plus près de chaque puce, la chaleur peut être évacuée de manière plus efficace. L'eau est chauffée à 60°C . La chaleur est ensuite récupérée à travers un échangeur de chaleur pour servir à d'autres applications. IBM
|
|
|
|
|
|
|
|
Depuis plus de 10 ans, IBM traville sur l' intégration de fonctions optiques dans les puces électroniques en silicium. Aujourd'hui cet effort commence à payer et Big Blue estime en effet avoir franchi une étape cruciale dans ce développement au point d'être prêt à passer à l'industrialisation dès 2011. L'idée de la nanophontique est d'intégrer dans des puces électroniques, comme les microprocesseurs, des transmetteurs photoniques afin de remplacer les connexions électriques avec d'autres puces par des liaisons optiques. A la clé, une accélération des traitements, une réduction de l'encombrement et une amélioration de l'efficacité énergétique du système. Habituellement, les fonctions photoniques font appel à des semiconducteurs exotiques comme l'arséniure de gallium et à des procédés de fabrication pointus et coûteux. Pour réduire les coûts et favoriser l'intégration, l'objectif des recherches est d'utiliser le silicium comme semiconducteur et le procédé Cmos, banalisés dans la fabrication des puces électroniques. En ajoutant quelques étapes au procédé Cmos standard, IBM est en mesure de fabriquer une grande variété de fonctions photoniques : diodes laser ; photodétecteurs ; modulateurs et multiplexeurs. De quoi réaliser l'ensembles des éléments nécessaires pour transmettre, recevoir et traiter des signaux photoniques. IBM affirme avoir décuplé la densité d'intégration par rapport aux prototypes démontrés jusqu'ici. Ainsi, il est parvenu à un transmetteur photonique à canal unique de seulement 0,5 mm 2. Ce résultat ouvre la voie à la construction de transmetteurs photoniques complets de 4x4 mm capable de transmettre des information à des débits à l'échelle du térabit par seconde. IBM
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Pour les dizaines de milliers de visiteurs qui se pressent dans les allées du salon de l'électronique grand public (CES) de Las Vegas, rien ne fait plus envie qu'un massage - fourni par le premier robot masseur au monde. Vedette de la nouvelle section "robotique" du salon, le petit prototype WheeMe, de la société israélienne DreamBots, tient dans la main mais se lance seul sur le corps pour dénouer des muscles tendus. "Ca chatouille agréablement", affirme Karen Slutzky, l'épouse du fondateur de DreamBots, pendant que WheeMe se met à l'oeuvre sur le dos d'une femme allongée sur une table de massage. "C'est un massage doux, très relaxant", réalisé par un appareil vibreur aux formes arrondies, dont les roues sont équipées de capteurs lui évitant de tomber du dos ou du ventre, et d'aller plus bas que le torse : "il ne sait pas où il va, mais il sait où ne pas aller". "Nous travaillons à le rendre plus intelligent, pour qu'il puisse aller sur les fesses et le long de la jambe", précise toutefois Mme Slutzky, qui espère trouver à Las Vegas un partenaire qui lui permettrait de faire distribuer WheeMee cette année aux Etats-Unis. Quelques stands plus loin, Takatoshi Kuno, de la société japonaise Cyberdine, fait la démonstration d'un "costume" mécanisé qui aide les invalides à marcher. Il s'agit d'un harnais relié à des pièces mécaniques qui courent le long des jambes, et/ou le long des bras. Le dispositif d'allure futuriste capte des signaux du système nerveux pour faire bouger les membres. La force de celui qui le porte est ainsi multipliée, pouvant être doublée ou même décuplée. "J'aimerais faire le costume de Tony Stark dans +Iron Man+, mais ça va prendre un certain temps", sourit M. Kuno. Son appareil, qui pèse 23 kg dans sa version complète (15 kg pour le système des jambes sans les bras), est déjà loué à 160 centre hospitaliers ou maisons de retraite au Japon. Un peu plus loin, d'irrésistibles robots phoques, dotés d'une douce fourrure, ont été certifiés "accessoire médical" par l'agence américaine du médicament (FDA) : le fabricant, le japonais Paro, les présente comme des aides thérapeutiques pour des personnes âgées souffrant de dépression ou de démence. Les phoques, d'un coût de 6.000 dollars, sont équipés de capteurs qui les font réagir à la lumière, au toucher et à la voix. "Avec le temps, (le phoque) développe une personnalité et peut être dressé comme un vrai animal domestique", assure un porte-parole de Paro - "sauf qu'ils peuvent aller là où les (vrais) animaux domestiques ne sont pas acceptés". Animal domestique d'une autre genre, le dinosaure Pleo, troisième version d'un jouet sorti en 2007, réagit désormais à la température et aux odeurs, et sait reconnaître les voix. Si on le laisse dans le froid, Pleo RB (pour +reborn+) attrape un rhume. Quand il fait chaud, il semble tout pantelant. Quand il tombe d'une table, il se fait mal, et il faut le soigner jusqu'à ce qu'il se remette, explique Derek Dotson, qui travaille pour le fabricant Innvo Labs. "On peut lui apprendre des tours, et quand il danse, il remue même un peu le popotin", assure M. Dotson : "cela a toujours été notre but de brouiller la limite entre la robotique et la biologie". Malgré un prix élevé (469 dollars), Pleo RB, mis en vente quelques jours avant Noël, est "pratiquement en rupture de stock". Habitués du CES, les robots ménagers, conçus pour la plupart sur le modèle de Roomba, de la société iRobot, ont accueilli cette année un nouveau venu : le Windoro, à 400 dollars, sait faire les carreaux. Cette machine, légère et carrée, s'accroche des deux côtés d'une fenêtre avec des aimants, et parcourt la vitre d'un côté puis de l'autre avec des patins de microfibre pour la nettoyer. AFP
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Une étude publiée dans la revue BioScience de janvier montre qu'il existe dans la durée une forte corrélation entre consommation d'énergie globale et croissance économique à la fois entre les pays et au sein de ces mêmes pays. Le projet de recherche conduit les auteurs à penser que la consommation d'énergie limite directement l'activité économique. Ils concluent qu'une "énorme" augmentation de l'offre énergétique sera nécessaire pour répondre aux besoins de la population mondiale croissante et pour sortir de la pauvreté les pays en développement sans pour autant compromettre le niveau de vie de la plupart des pays développés. L'étude, qui a utilisé une approche macroécologique, est fondée sur des données de l'Agence internationale de l'énergie (AIE) et du World Resources Institute. Elle a été réalisée par une équipe d'écologistes dirigé par James H. Brown de l'Université du Nouveau-Mexique. L'équipe a constaté le même type de relation entre la consommation d'énergie et le produit intérieur brut (PIB) par individu que le métabolisme et le poids du corps chez l'animal. Le groupe de recherche suggère que cette similitude est bien réelle : les villes et pays, tout comme les animaux, ont des métabolismes qui doivent brûler du carburant pour se maintenir et se développer. Cette analogie, avec les données et la théorie, renforce l'idée que le lien entre la consommation d'énergie et l'activité économique est causale. Cependant d'autres facteurs doivent également entrer en jeu pour expliquer la variabilité dans les données. L'étude montre ensuite que les variables relatives au niveau de vie, tels que la proportion de médecins dans une population, le nombre de téléviseurs par personne, et le taux de mortalité infantile, sont également corrélées avec la consommation d'énergie et le PIB par individu. Ces corrélations conduisent les auteurs à leurs conclusions sur l'augmentation de la production d'énergie nécessaire pour maintenir une population mondiale toujours croissante, sans baisse du niveau de vie. Enerzine
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
La mission Planck voit une très forte participation des laboratoires français du CNRS et du CEA, qui ont travaillé dans le cadre du consortium HFI, instrument français dont Jean Loup Puget, de l'Institut d'Astrophysique Spatiale d'Orsay, est le responsable scientifique (PI) tandis que François Bouchet, de l'Institut d'Astrophysique de Paris, coordonne l'analyse scientifique des données. Ces équipes, soutenues par le CNES (l'agence spatiale française), ont joué un rôle de premier plan dans l'analyse des données de Planck, l'extraction des sources et leur observation avec des moyens complémentaires tels que le satellite XMM-Newton de l'ESA, et la construction de la première édition du catalogue de sources Planck. Le CNES a accompagné très tôt le projet Planck par des études de recherche et développement, en coordonnant les efforts des équipes des laboratoires du CNRS, du CEA, et de l'industrie (Thales Alenia Space, Air Liquide). Son implication continue, en phase d'exploitation du satellite, par son support aux équipes scientifiques impliquées dans l'exploitation des données scientifiques. L'objectif de Planck est de mesurer avec une précision inégalée le rayonnement cosmique fossile ou fond diffus cosmologique, la plus ancienne lumière émise dans l'Univers. En l'observant, Planck fournira une image de l'Univers tel qu'il était 380 000 ans environ après le Big Bang, il y a 13,7 milliards d'années. Ces observations donneront des informations uniques sur l'origine et l'assemblages des galaxies et amas de galaxies, et permettront de tester différentes hypothèses sur le déroulement des premiers instants qui ont suivi le Big Bang. Pour cela, le satellite balaie l'intégralité du ciel et fournit, avec une précision sans précédent, une cartographie des inhomogénéités de température et de polarisation du rayonnement cosmique fossile. Le satellite a d'ores et déjà terminé sa mission nominale d'acquisition de données de deux ciels complets. Les scientifiques espèrent acquérir les données de deux autres ciels avant la fin effective de la mission prévue début 2012. De nombreux objets présents dans l'Univers émettent une lumière dans les mêmes longueurs d'onde que le fond diffus cosmologique, notamment la poussière froide de notre galaxie, les galaxies lointaines ou les électrons évoluant dans les champs magnétiques. Ainsi Planck détecte non seulement l'émission des poussières dans notre Galaxie ou dans les Nuages de Magellan mais aussi l'accumulation des émissions de poussières présentes dans les autres galaxies, jusqu'aux plus lointaines : le fond diffus infrarouge. L'analyse de ces émissions «parasites», nécessaire pour accéder au rayonnement fossile, fournit à la communauté scientifique des données très précieuses et souvent inédites sur ces objets. Les sources détectées par Planck vont ainsi des fréquences radio à l'infrarouge lointain ; elles comprennent des nébuleuses denses et froides situées dans des régions de formation d'étoiles de notre galaxie, et des amas de galaxies supermassifs. CNRs
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L'année 2010 a été la plus chaude jamais enregistrée sur Terre depuis les premiers relevés en 1880, à égalité avec 2005, ont rapporté récemment deux agences américaines. En 2010, la température à la surface du globe a été supérieure de 0,62° Celsius à la moyenne du XXe siècle, selon le Centre national des données climatiques (NCDC), organisme dépendant de l'Administration océanique et atmosphérique nationale. "Ces résultats montrent que le climat continue de traduire l'influence des gaz à effet de serre. C'est une preuve du réchauffement", a commenté David Easterling, responsable des services scientifiques au sein du NCDC. Il est impossible d'imputer directement au réchauffement global des événements climatiques particuliers tels que la sécheresse en Russie ou les inondations au Pakistan. Mais la tendance à la hausse des températures depuis 2000 accroît la probabilité d'événements extrêmes tels que des canicules, des sécheresses ou des inondations, a ajouté David Easterling, qui s'exprimait au cours d'une téléconférence. Toutes les années depuis 2000 figurent parmi les 15 plus chaudes jamais enregistrées, a-t-il rappelé. L'année 2010 a aussi été la plus humide jamais observée et une atmosphère plus chaude contient davantage d'eau, ce qui en général résulte en des inondations plus fréquentes, a poursuivi cet expert. L'Institut Goddard pour les études spatiales, organisme de la Nasa, a publié un rapport aboutissant à la même conclusion : 2010 a été l'année la plus chaude avec 2005. "Si la tendance au réchauffement se poursuit, comme on peut s'y attendre, si les émissions de gaz à effet de serre continuent de progresser, le record de 2010 ne tiendra pas longtemps", a prédit James Hansen, directeur de cet institut. NOAA
|
|
|
|
|
|
|
|
Selon un rapport réalisé par des chercheurs français de l'INRA et du CIRAD, les pays riches devront mettre moins de viande dans leur assiette et en finir avec le gâchis pour nourrir neuf milliards d'individus en 2050, tout en préservant les ressources de la planète. Examinant la question de la subsistance alimentaire des êtres humains à l'horizon 2050, le rapport "Agrimonde", fruit de travaux lancés en 2006, répond par deux scénarios : l'un privilégie le bien-être immédiat et l'autre, le développement durable. Et ce dernier suppose "une vraie rupture", souligne cette étude réalisée par l'Institut national de la recherche agronomique (INRA) et le Centre de coopération internationale en recherche agronomique pour le développement (Cirad). "Evidemment, ce n'est pas parce que je vais moins manger que quelqu'un du Sahel va mieux manger", nuance Sandrine Paillard, responsable de l'unité prospective de l'INRA. "Mais il est clair que si toute la planète mange comme on mange, et notamment autant de viande, la pression sur les ressources naturelles ne sera pas tenable". En moyenne, un individu a à sa disposition 3 000 kilocalories par jour. Mais les disparités sont fortes : on atteint les 4 000 dans les pays riches de l'OCDE, et même 4 500 aux Etats-Unis, contre seulement 2 300 en Afrique sub-saharienne. Dans le scénario axé sur le développement durable, les chercheurs estiment que les 3 000 kilocalories quotidiennes doivent être réparties de façon plus équitable dans le monde. Un postulat qui permet de "ne pas augmenter la pression sur les ressources naturelles par rapport à aujourd'hui". Pour les pays du Nord, cela impliquerait de réduire la disponibilité en calories de 25 %. "Ce qui est assez énorme", commente Sandrine Paillard. Les moyens d'y parvenir sont multiples et impliquent toute la chaîne de production et de consommation. D'abord, il s'agit de réduire "les pertes à la consommation" qui peuvent s'élever jusqu'à 30 % dans les pays riches. Dans la ligne de mire : le gaspillage, notamment celui causé par les aliments jetés après la date de consommation optimale, souvent confondue avec la date de péremption. "L'industrie agroalimentaire aussi se protège, les dates de péremption ne reflètent pas forcément la réalité de la sécurité des aliments", avance la chercheuse. Ce scénario suppose également des politiques de santé publique "plus ambitieuses" pour lutter contre la suralimentation et les maladies associées, écrit le rapport. En 2003, 1,3 milliard d'adultes dans le monde étaient en surpoids, dont 400 millions d'obèses. Il ne s'agit donc pas seulement de moins manger mais de manger différemment, et notamment de limiter la viande : la production de ruminants a augmenté de 40 % entre 1970 et 1995. Le scénario durable suppose que la part des calories végétales représente 2 500 kilocalories sur les 3 000 journaliers. "Dès que le régime alimentaire est caractérisé par une forte part de calories animales, la pression sur les ressources naturelles est beaucoup plus importante", rappelle Mme Paillard. Pour l'eau par exemple, le rapport souligne que, quand 100 litres d'eau sont nécessaires pour produire un kilo de pommes de terre, la quantité s'élève à 13 000 litres pour un kilo de viande de boeuf. CIRAD
|
|
|
|
|
|
|
|
L'homme pourra-t-il un jour faire tomber la pluie sur commande ? Les experts du climat en doutaient. Les nombreuses expériences menées en ce sens se sont en effet toujours révélées décevantes. Un projet secret étonnant, financé par le président des Emirats Arabes Unis, pourrait toutefois changer cette donne. Dans la région d'Abu Dhabi, réputée pour sa sécheresse estivale, des ingénieurs suisses auraient réussi à faire tomber la pluie à une cinquantaine de reprises cet été. Dans une vidéo confidentielle que les journalistes du Sunday Times ont pu visionner, le président de la société Meteo Systems International, Helmut Fluhrer, révèle être «en train de tester une nouvelle technologie de déclenchement de pluie artificielle, Weathertec, dans la région d'Al Ain à Abu Dhabi». «Nous avons démarré en juin 2010 et avons réussi à faire pleuvoir à plusieurs reprises», soutient-il. Selon les mêmes journalistes, des scientifiques allemands de l'Institut Max Planck de météorologie ont participé à la surveillance du projet. Le respectable professeur Hartmut Grassl, ancien directeur de l'institut, serait notamment impliqué. Plutôt que d'ensemencer des nuages existants avec du chlorure d'argent, une méthode rudimentaire à l'efficacité douteuse mais encore utilisée en Chine ou en Israël, les chercheurs ont mis en place dans le désert des parasols métalliques d'une dizaine de mètres de haut capables de charger l'air électriquement. Ces derniers produisent des ions négatifs qui sont envoyés dans l'air. Ces particules ont la propriété d'agréger les poussières qui forment alors un support idéal à la condensation de l'eau naturellement contenue dans l'air. La formation de plusieurs milliards de ces minuscules gouttes pourrait alors donner un nuage, lui-même source de pluie. Le dispositif, allumé 74 fois en 112 jours - dès que la saturation de l'air en eau dépassait 30 % - aurait provoqué des chutes de pluie à 52 reprises. Le volume de ces précipitations n'est pas révélé. A chaque fois, les services météorologiques locaux ne prévoyaient ni nuages, ni précipitations. L'entreprise Meteo Systems semble pourtant penser que son dispositif pourrait se substituer aux très coûteuses usines de dessalement de l'eau de mer. D'après ses calculs, la production de 100 millions de mètres cubes d'eau douce coûterait seulement 7 millions d'euros par an avec cette technologie, contre 53 millions d'euros pour une usine de dessalement. Sunday Times
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Avec plus de 860 000 personnes atteintes en France, la maladie d'Alzheimer et les maladies apparentées représentent la première cause de perte des fonctions intellectuelles liée à l'âge. Cette altération cognitive est le résultat de l'accumulation de protéines Tau anormales dans les cellules nerveuses qui entraine leurs dégénérescences. Le dysfonctionnement de Tau provient d'un excès de phosphorylation (addition d'un groupe phosphate à une protéine ou à une petite molécule) conduisant à l'agrégation des protéines. La raison pour laquelle celles-ci subissent une phosphorylation anormale reste inconnue. L'équipe « Alzheimer & Tauopathies » dirigée par Luc Buée révèle qu'une fraction de la protéine Tau sous sa forme « déphosphorylée » est capable, en conditions de stress cellulaire, de se fixer à l'ADN pour le protéger. Les chercheurs ont observé, dans des neurones de souris déficients en protéines Tau, des dommages de leur l'ADN, en condition de stress cellulaire (choc thermique), ce qui n'est pas le cas dans des neurones normaux. L'ajout de protéines Tau normales (déphosphorylées) dans ces neurones déficients a permis de les protéger à nouveau des dommages à l'ADN. Ces résultats montrent que la protéine Tau est l'élément protecteur, ce qui lui confère un rôle clé dans la réponse au stress. L'équipe de recherche a également montré que seules les protéines Tau « déphosphorylées » sont capables de passer dans le noyau de la cellule nerveuse pour protéger l'ADN. Dans le cas de la maladie d'Alzheimer et de nombreuses Tauopathies où l'on observe d'importants dommages à l'ADN, la phosphorylation anormale des protéines Tau empêcherait leur passage dans le noyau. Ainsi Tau ne pourrait pas exercer son rôle entrainant des dommages accrus à l'ADN. Ces travaux ouvrent la voie à de nouvelles pistes de recherche permettant de progresser plus rapidement dans la lutte contre cette maladie et les pathologies apparentées. « Nous cherchons aujourd'hui à identifier la région de Tau impliquée dans la liaison à l'ADN et proposons d'étudier les mécanismes du passage de Tau dans le noyau, explique Luc Buée. En effet, moduler la phosphorylation permettrait de restaurer l'ensemble des fonctions normales de Tau et de protéger à nouveau les neurones des malades ». CNRS
|
|
|
|
|
|
|
|
La pandémie H1N1 de l'hiver dernier a secoué les pays touchés comme les Etats-Unis ou encore la France, qui s'était alors empressée de mettre au point un vaccin contre ce virus jusque là inconnu. Un événement qui a permis de relancer la recherche sur les vaccins anti-grippe et qui permettra peut-être de voir apparaître un vaccin universel. Ainsi, une étude menée par le Docteur Patrick Wilson, et parue dans le Journal of Experimental Medicine, fait part du développement d'un vaccin anti-grippe multi-souches. L'homme explique à l'AFP : "Les résultats de notre recherche sont un peu comme le Saint Graal du vaccin anti-grippe". L'étude montrerait alors qu'un seul vaccin est potentiellement capable de protéger les hommes contre l'ensemble des virus de la grippe. Ce résultat a été obtenu après que les scientifiques ont observé la production d'anticorps des personnes ayant été affectées et ayant guéri de la grippe A. Les gènes de ces anticorps ont été isolés et stimulés jusqu'à leur multiplication et l'isolation de cinq d'entre eux ayant réagi contre les virus de la grippe saisonnière, la grippe A, la grippe espagnole et la grippe aviaire. Et le Docteur Jens Wrammert, un des auteurs de l'étude, de conclure : "Ces résultats montrent que ces types d'anticorps peuvent être induits chez l'homme, si le système immunitaire a la bonne stimulation, et suggèrent que le développement d'un vaccin universel antigrippe pourrait être possible". Maxisciences
|
|
|
|
|
|
|
|
La Broncho-Pneumopathie Chronique Obstructive (BPCO) est une maladie pulmonaire jusqu'ici incurable. L'Organisation Mondiale de la Santé estime qu'en 2020, elle sera la troisième cause de mortalité due aux maladies dans le monde. Des chercheurs du centre Helmholtz de Munich ont cependant montré que la BPCO pouvait être traitée chez des souris modèles. Cette découverte pourrait permettre le développement d'un traitement. Les résultats de l'étude ont été publiés dans le journal "American Journal of Respiratory and Critical Care Medicine". La BPCO est un groupe de maladies chroniques systématiques, principalement causée par le tabagisme, atteignant les bronches. Elle se traduit par une obstruction non totalement réversible de celles-ci (hypersécrétion de mucus et épaississement des parois), une destruction des parois alvéolaires, une fibrose de la paroi des voies respiratoires associée à une perte d'élasticité, et une inflammation chronique des poumons. Tout cela conduit à une diminution des débits expiratoires et aboutit le plus fréquemment à une insuffisance respiratoire. La maladie atteint principalement les personnes de plus de 40 ans. L'équipe de Melanie Königshoff du Centre de pneumologie du Centre Helmholtz de Munich a découvert que la voie de signalisation Wnt était inhibée chez les patients atteints de BPCO. Ils ont réussi à réactiver cette voie chez des souris malades et ont pu observer que l'emphysème était atténué de façon significative et que le fonctionnement des poumons était amélioré. Ils ont ainsi conclu que la voie de signalisation Wnt était impliquée dans les processus de réparation des poumons et que son activation pourrait être une future approche thérapeutique pour le traitement de l'emphysème pulmonaire. Bulletin électronique
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
En lançant son service de location de voitures électriques dès le 30 mars 2011, la Baie des Anges coiffe la capitale sur le poteau et s'affirme comme la première ville française à engager un programme en auto-partage fondé sur la circulation « propre ». Le service, baptisé auto bleue (51 véhicules de location pour commencer et un réseau de 70 stations), maillera le territoire de l'agglomération niçoise, de Cagnes-sur-Mer à Beaulieu, en passant par Saint-Laurent-du-Var. Une flotte de 210 véhicules sera constituée après l'été 2011. Contrairement à Paris, Autobleue prévoit une formule sans abonnement : « Liberté ». Celle-ci se traduira par un tarif horaire de 8 ? ou des forfaits de 4 à 10 heures (20 à 50 ?), avec une réservation gratuite par Internet ou par téléphone. La formule « Fréquence » prévoiera un abonnement mensuel de 50 ? dans lequel sont comprises 10 heures d'utilisation. Les heures hors forfait seront facturées 5 ?. Les réservations seront gratuites, sauf par centre d'appel (3 ?). Avant de souscrire à l'une de ces deux formules, l'usager devra payer une adhésion de service de 25?, déposer une caution (non encaissée) de 300 ? et financer une franchise de 300 ? (en cas d'accident). Différents modèles de voitures électriques seront proposés à la location : Heuliez et sa MIA, Citroën avec son utilitaire Berlingo et Peugeot avec la citadine iOn. Les 70 stations proposeront des places de stationnement et seront dotées de bornes de rechargement. Entreprise Nice
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|