|
|
Edito
L'électronique et la photonique convergent pour atteindre l’accès instantané à l'information
Quarante ans après l'invention du premier microprocesseur, en 1971, INTEL vient d'annoncer une innovation de rupture qui fait entrer l'électronique dans une nouvelle ère : le transistor 3D. Fruit de plusieurs années de recherche, ces transistors offrent un gain significatif en termes de performances et de consommation d'énergie. (Voir articles Technology Review et Nature).
Les processeurs Intel Core Ivy Bridge seront les premiers à en bénéficier. Intel peut, à juste titre, évoquer " Une percée majeure et une innovation historique pour les microprocesseurs ». Avec l’arrivée de cette nouvelle génération de transistors 3D, baptisés Tri-Gate, la gestion du courant à travers ces nouveaux transistors est complètement repensée grâce à l'ajout d'une porte sur chaque côté de l'ailette tridimensionnelle. Cette configuration spatiale permet de faire passer le maximum de courant quand le transistor est sollicité et de ne presque rien avoir lorsqu'il est inactif.
Résultat, les Tri-Gate offrent des performances en basse tension jusqu'à 37 % supérieures et consomment deux fois moins pour des performances équivalentes aux transistors 2D des processeurs 32 nm. Les avantages en tension et en consommation électrique dépassent de loin ceux que l'on peut en général obtenir d'une génération de techniques de gravure à une autre.
Pour mieux comprendre le bond en avant que représente ce transistor 3D, il faut souligner que si Intel avait simplement réduit les transistors d'aujourd'hui de 32 à 22 nanomètres, il aurait obtenu un gain de performances de moins de 20 %, alors qu'avec le Tri-Gate, on atteint près du double ! Cette innovation historique va même permettre de dépasser la fameuse loi de Moore, édictée en 1965 et qui prévoit un doublement des performances des puces tous les 18 mois. Avec cette invention, Intel a désormais plus de 4 ans d'avance sur ses concurrents les plus proches (GlobalFoundries, IBM, Samsung et TSMC, ndlr), ce qui est considérable dans ce secteur stratégique. Bien entendu, Intel utilisera cette nouvelle technologie pour ses prochaines générations de transistors à 14, 10 et 8 nanomètres, prévues respectivement en 2014, 2016 et 2018.
Pour franchir ces nouveaux caps, Intel a annoncé qu'il abandonnerait vers 2016 la lithographie par immersion utilisant un laser d’une longueur d’onde de 193 nm pour passer à l’EUV, l'Ultra Violet Profond. Cette nouvelle technologie de gravure permettra de poursuivre cette descente vertigineuse de l'électronique vers le nanomonde.
On mesure mieux le chemin parcouru par Intel lorsqu'on rappelle qu'en 40 ans, le nombre de transistors implantés sur une puce a été multiplié par un million, passant de 2000 à 2 milliards et qu'il devrait approcher les 20 milliards dans une dizaine d'années, la finesse de gravure étant descendue à seulement 4 nanomètres !
Notons qu'en matière d'innovation, Intel fait feu de tout bois puisqu'il a également annoncé en juillet 2010 une avancée décisive dans le domaine de la photonique, c'est-à-dire l'utilisation de la lumière pour remplacer les électrons qui transportent les données dans et autour des ordinateurs. L’entreprise a en effet mis au point un prototype de recherche qui constitue la première liaison optique de données à base de silicium avec lasers intégrés. Celle-ci peut acheminer les données sur de plus longues distances et largement plus rapidement que le cuivre aujourd'hui, soit jusqu'à 50 gigabits de données par seconde jusqu'à 100 mètres de distance. Ce débit équivaut ainsi à la transmission de tout un film HD en une seconde ! Le fondeur estime que cette technologie qui sera intégrée dans les ordinateurs, tablettes, smartphones ou télévisions, sera disponible en 2015.
Il y a quelques jours, une équipe de recherche regroupant des chercheurs de l'Institut Tecip de la Scuola Superiore Sant'Anna de Pise, du Laboratoire National de Réseaux Photoniques du Cnit (Consortium National Interuniversitaire pour les Télécommunications) et d'Ericsson, ont présenté le premier système de transmission cohérente au monde fonctionnant à 448 gigabit/s. Ce nouveau système permettrait de transmettre en une seconde 20 films en HD, 22 000 connexions ADSL de 20 Mbit/s, 7 millions d'appels vidéo ou encore 100 millions d'appels audio standards. On voit donc que l’intégration photonique progresse au même rythme que l’intégration électronique définie par la Loi de Moore.
Enfin, il faut également évoquer l'annonce d'IBM, fin 2010, qui a franchi une autre étape importante en photonique, en utilisant des impulsions de lumière pour accélérer le transfert des données entre les puces avec la technologie CMOS Integrated Silicon Nanophonics. Selon les chercheurs d’IBM, l’utilisation de puces CMOS Integrated Silicon Nanophonics pourrait multiplier par 1000 les performances des supercalculateurs actuels. Cette technologie intègre des modules électriques et optiques sur une seule pièce de silicium.
Si l'on imagine à présent la synergie qui va résulter de l'utilisation combinée de cette nouvelle électronique, de la photonique et de la généralisation des réseaux de télécommunication optique à très haut débit, on s'aperçoit que le visionnaire George Gilder avait vu juste lorsqu'il prévoyait, dans un article publié en 1993 et intitulé "Adieu au téléphone et au téléviseur", que l'Internet deviendrait d'ici 20 ans comparable à un vaste microprocesseur planétaire, dans lequel nous serons totalement immergés et qui nous permettrait partout d'avoir accès instantanément à toute l'information dont nous aurions besoin.
Nous allons, avant 10 ans, arriver sur ce haut plateau de la technologie et le saut ne sera pas seulement quantitatif mais qualitatif, provoquant une mutation économique, sociale et culturelle planétaire dont nous ne saisissons pas encore toute la portée. Mais pour tirer pleinement partie de cette révolution qui s'annonce et ne pas la subir, nous devons apprendre à maîtriser ces nouveaux outils et concepts pour pouvoir passer d'une société de l'information à une société de la connaissance pour tous.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Grâce à des lunettes spéciales dotées d'un micro-écran à diodes organiques (OLED), les amateurs de jogging pourront bientôt faire leur exercice en regardant des fichiers vidéos ou autres données de paramètres vitaux, tout en gardant une bonne vision de leur environnement direct.
Cela est rendu possible par un micro-écran organique développé par l'Institut Fraunhofer des microsystèmes photoniques (IPMS) de Dresde (Saxe), et présenté ce mois de mai 2011 à Los Angeles lors d'un salon international, la "SID display week". Ce nouveau système est intégré dans un concept d'"écran monté sur tête" (Head-Mounted Display), qui définit les appareils portatifs en casque ou sur lunettes permettant de transmettre des données vidéo directement à un individu.
Cet écran développé par l'IPMS est doté d'une caméra intelligente qui perçoit et suit l'orientation du regard de l'utilisateur, et ainsi envoie l'information à un endroit toujours en périphérie de son champ de vision, afin d'être visible sans perturber la perception de l'environnement direct. Cet appareil, dans la lignée des technologies d'électronique organique développées dans le pôle de Dresde, pourrait avoir des applications commerciales rapides.
Bulletins Electroniques
|
|
|
|
|
|
|
|
La connectivité d'une cité a un impact à la fois économique mais également social et environnemental sur celle-ci. Le constat est rappelé par Ericsson et le cabinet de conseil Arthur D. Little, qui ont publié un classement des 25 villes les plus connectées au monde. Les grands gagnants sont Singapour, Stockholm et Séoul. Comme le souligne l'étude, lorsque le taux de pénétration du haut débit dans une grande ville augmente de dix points, et c'est le cas dans les cités qui se placent en tête du classement, l'effet sur l'économie nationale est alors important puisque cela représente environ 1 % de Produit Intérieur Brut (PIB) en plus.
Il semble en effet que la connexion de mille utilisateurs nouveaux qui se connectent au réseau haut débit représente l'équivalent de 80 emplois créés. Dans tous les cas, on constate en parallèle des avancées sociales importantes, notamment en ce qui concerne l'éducation mais également la participation aux élections ou encore l'effet sur les interactions entre les citoyens. Le directeur de Arthur D. Litlle, Erik Almqvist, explique en effet que "la construction de la société en réseau est donc l'un des grands défis de notre époque".
L'environnement n'est également pas en reste. En effet, les innovations en rapport avec le développement durable sont nombreuses dans ces villes, qu'elles se situent en Europe, outre-atlantique ou en Asie, notamment lorsqu'il s'agit d'optimiser l'efficacité énergétique ou de réduire l'émission de gaz à effet de serre. Paris se place en 5ème position du classement, notamment grâce à la mise en place fin 2011 d'un parc de 3000 véhicules électriques à disposition des citoyens. Pour rappel, aujourd'hui, plus de 50 % de la population du globe vit dans des zones urbaines et en 2030, ce chiffre devrait passer à 60 %.
L'Atelier
|
|
|
|
|
|
|
|
Alors que l’Internet « haut débit » par satellite sera disponible en France dans quelques semaines, l’Etat vient d’annoncer son soutien au CNES pour engager un programme de recherche et développement sur le « très haut débit » par satellite.
En parallèle de la fibre optique
L’Internet « haut débit » par satellite en France pour seulement 30 euros par mois, c’est désormais possible avec le satellite KA-SAT de l’opérateur européen Eutelsat, lancé en décembre 2010. Dans les semaines qui viennent, des offres à 2 Mbps au prix de l’ADSL devraient fleurir. Objectif : desservir en Internet « haut débit » les régions les plus reculées du territoire.
Pourtant, les opérateurs et le CNES réfléchissent déjà à la prochaine génération de satellites capable, cette fois-ci, d’offrir le « très haut débit » pour tous. « De la même façon qu’on commence aujourd’hui à déployer, en France, la fibre optique sur le réseau terrestre avec des débits de l’ordre de 100 mbps, le satellite doit suivre la marche pour proposer aux foyers des zones rurales des débits élevés dans 5 à 10 ans » explique Christophe Allemand, en charge du très haut débit par satellite à la Direction de la stratégie et des programme du CNES.
La fibre optique est au cœur du programme gouvernemental visant à généraliser le « très haut débit » dans notre pays. Mais, avec son déploiement progressif du cœur des grandes villes vers les zones rurales, il s’écoulera de nombreuses années avant qu’elle ne desserve les entreprises, établissements publics et particuliers des zones les moins densément peuplées.
L’Etat s’engage donc à soutenir des travaux de recherche et développement sur le « très haut débit » par satellite dans le cadre du programme national « économie numérique » des investissements d’avenir.
Une enveloppe de 40 millions d’euros, qui pourra être étendue jusqu’à 100 millions d’euros en fonction des résultats, va être allouée au CNES, chargé de la mise en œuvre de ce programme qu’il avait proposé aux autorités.
« Nous avons mené depuis presque 2 ans des études préparatoires avec l’industrie pour concevoir ces satellites de nouvelles générations, rappelle Christophe Allemand. Bien entendu, ils nécessitent le développement d’un grand nombre de technologies très innovantes. Le programme décidé par les autorités permettra à l’industrie de proposer aux opérateurs, Eutelsat et bien d’autres, ces satellites très haut débit à partir de 2015. »
CNES
|
|
|
|
|
|
|
|
Alors que la France compte plus de 16 millions de mobinautes, 3,3 millions de Français se sont déjà essayé au m-commerce, selon l'Observatoire des nouvelles tendances de consommation de CCM Benchmark (éditeur du Journal du Net), présenté mardi 10 mai à la Fevad. Les deux tiers de ces "mobi-acheteurs" sont des possesseurs d'iPhone. Au total, 12 % des acheteurs en ligne ont déjà acheté un bien ou un voyage depuis leur mobile (hors téléchargement d'applications payantes).
Les voyages sont les premiers biens achetés depuis un téléphone mobile. Un tiers des mobi-acheteurs dit avoir payé des billets de train, d'avion, ou des réservations d'hôtel et des locations sur son portable. Viennent ensuite les achats de biens culturels (CD, DVD, livres, etc.). "Comme ils l'ont fait sur l'Internet fixe avec l'e-commerce, les mobinautes testent le m-commerce avec des biens peu onéreux, comme les billets de train ou les biens culturels", explique Gilles Blanc, directeur d'études chez CCM Benchmark. Plus d'un quart des acheteurs sur mobile ont également acheté des vêtements en ligne.
"Les acheteurs sur mobile sont avant tout des gens rompus à l'achat en ligne qui achètent via leur mobile dans certaines conditions", souligne Gilles Blanc. L'absence de connexion Internet fixe est la principale raison avancée pour justifier la réalisation d'une transaction sur mobile, par 42 % des mobi-acheteurs. Un acheteur sur mobile sur quatre avance des contraintes de temps (enchères, vente flash, etc.) et un sur cinq explique avoir voulu gagner du temps en profitant d'un temps mort dans sa journée. Un acheteur sur cinq explique aussi avoir acheté sur mobile un produit qu'il avait déjà repéré ailleurs (magasin, Web fixe, etc.).
Le Journal du Net
|
|
|
|
|
|
|
|
Un ordiphone ou une tablette en papier ? C'est ce qu'ont réalisé des chercheurs de la Queen’s University en Ontario (Canada) et de l’université de l’Arizona. Ils ont mis au point un outil tactile, appelé le Paperphone. Doté de la technologie de papier électronique développé par la société E-Ink, il est constitué d’un écran entièrement flexible. Et ce qui est intéressant, c'est que la navigation se fait au moyen de torsions et de pliages des centres ou des coins de l’écran. Roel Vert, responsable du projet, explique "nous avons voulu que cet outil ressemble et s’utilise comme une feuille de papier interactive". Pour mieux comprendre quels mouvements de la feuille seront plus facilement manipulables auprès des utilisateurs, et que ces derniers soient aussi les plus ergonomiques possibles, les chercheurs ont mené une étude auprès d'usagers potentiels.
L’objectif des scientifiques était de comprendre comment l’utilisateur sent une meilleure logique entre son mouvement et l’action qu’il désire effectuer, selon qu’il effectue des zooms par exemple, qu’il tourne des pages, ou encore qu’il actionne la touche "play" pour mettre en marche la musique. Les participants ont ainsi dû effectuer les gestes qui leur semblaient les plus faciles à accomplir, à partir de vingt actions suscitées par l’utilisation de cinq applications différentes. Ainsi, les chercheurs ont noté près de 87 mouvements par paire, soit avant/arrière par exemple.
Puis ils ont relevé les six paires de torsions les plus fréquentes, à savoir les torsions avant/arrière du coin supérieur droit de l’écran, celles de la partie du milieu, puis viennent celles du bas droit de l’écran. Notons par exemple que pour naviguer, les mouvements pour aller à gauche se feront grâce à une torsion du côté haut de l’écran vers l’arrière, alors qu’un mouvement vers la droite se fera en pliant le même angle dans la direction de l'utilisateur. Ce sont les représentations mentales et les manipulations des objets en papiers réels qui ont permis aux chercheurs d’élaborer les mouvements les plus ergonomiques. Au cours de l’expérience, les utilisateurs ont ainsi eu en tête des images physiques d’un livre dans les mains par exemple.
L'Atelier
|
|
|
|
|
|
|
|
Mettre un PC dans la poche de tous les enfants, et pourquoi pas des plus grands. Voilà l’objectif de la fondation Raspberry Pi, une association anglaise qui développe un PC à la fois petit – il n’est pas plus grand qu’une clé USB – et extrêmement bon marché, puisqu’il ne devrait pas dépasser les 25 dollars, soit environ 17 euros ! Le Raspberry Pi n’a pas été conçu par un inconnu : c’est l’idée du programmeur David Braben, un Britannique à qui l’on doit notamment un jeu vidéo culte des années 80, Elite.
Pour ce projet, Braben a tenté de réduire le PC à son strict minimum. Le prototype de son PC low-cost, qu’il a présenté, ne dispose que du strict minimum. Une minuscule carte mère, surmontée d’un processeur ARM à 700 Mhz de 128 Mo de SDRAM et d’un module Wi-Fi. Ce PC, dont le stockage est assuré à l'aide d'un port pour carte SD, dispose d’une entrée USB 2.0 pour y brancher un clavier, et d’une sortie HDMI de l’autre côté, afin de connecter l’engin à une télévision. Petit, mais tout de même assez costaud, le PC est compatible avec OpenGL ES2.0 et se révèle capable de décoder du H.264 en 1080p. Sur le prototype qu’il présente, Braben a même ajouté un capteur photo de 12 mégapixels.
Bien entendu, étant seulement compatible avec les processeurs ARM, impossible d’y faire tourner Windows mais le Raspberry Pi est en mesure de faire fonctionner toute une variété de systèmes GNU/Linux. D’après la BBC, les concepteurs privilégieraient toutefois Ubuntu. Braben explique qu’il destine avant tout cette machine aux écoles, et espère qu’il pourrait même offrir cet outil aux enfants. Pas seulement pour qu’ils puissent communiquer et surfer sur le Web à peu de frais, mais aussi pour qu’ils découvrent les joies de la programmation informatique. Braben espère voir une version commerciale de son produit lancée dans un an.
01net
|
|
|
|
|
|
|
|
Six mois après l’envoi des premiers mails d’avertissement aux internautes pris en flagrant délit de téléchargement illégal, l’Hadopi mesure ses premiers effets. La Haute autorité a dévoilé la deuxième vague de son étude sur la pratique et la perception des Français en matière de consommation illégale de biens culturels. Selon cette étude, l’effet-Hadopi commence à se faire sentir. «Un internaute sur deux considère que la «mise en place de l’Hadopi est une bonne initiative», affirme l’étude qui a sondé 1.500 internautes durant le mois d’avril. Cette adhésion concerne davantage les femmes (54 % vs 50 % en moyenne) et les CSP- (56 %). En revanche, près d’un tiers des internautes ne se prononcent pas.
L’envoi des premiers mails d’avertissement, le 1er octobre dernier, aurait activé la peur du gendarme. Sur les 7 % des internautes ayant été concernés par ces mails directement ou indirectement (soit qu’eux-mêmes ou un membre de leur entourage a reçu une recommandation de l’Hadopi), 50 % affirment avoir arrêté leur «comportement illégal» et 22 % reconnaissent agir avec davantage de modération. Au total, selon ces données, 72 % des sondés téléchargent moins voire plus du tout grâce à la riposte graduée, ce qui constitue un cinglant démenti pour tous ceux qui dénoncaient une loi "inapplicable" ou "liberticide".
Toutefois, l’étude ne précise pas à quel secteur profite cette modification (musique, cinéma, livre ?), pas plus qu’elle ne la quantifie d’ailleurs (la modification des comportements est-elle une réduction des fichiers téléchargés ? Des sites illégaux visités ? S’agit-il d’une nouvelle façon de chercher des contenus illégaux ?). A noter également : 25 % des internautes ayant reçu un avertissement (ou un de leurs proches) n’ont pas changé leurs habitudes.
«Hadopi n’est pas une réforme facile mais juste. Le temps du statu quo est révolu», a prévenu Marie-Françoise Marais. La présidente de l’Hadopi a toutefois rappelé que «le but de l’institution n’était pas de réprimer mais d’expliquer». «Depuis le début, nous considérons que la riposte graduée est un processus de pédagogie et de responsabilisation», a-t-elle rappelé.
PC INpact
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Une start-up -Firma Dispatch Energy- en partenariat avec l'Institut Fraunhofer pour les technologies du silicium (ISIT) a mis au point une batterie de stockage pour l'énergie solaire produite chez les particuliers. L'idée de pouvoir utiliser soi-même le courant produit chez soi n'est pas nouvelle mais jusqu'ici, la technique faisait défaut pour pouvoir stocker des quantités significatives. A Freiburg (Bade-Wurtemberg), des chercheurs de l'ISIT et de Firma Dispatch Energy ont pourtant réussi à développer un système de stockage basé sur la technologie lithium-ion, qui permettrait de fournir 5KWh, soit d'alimenter une maison de quatre personnes pendant la nuit ou les jours de faible intensité lumineuse. Cette invention porte le nom de "diamant noir" à cause du lithium qu'elle utilise.
L'accumulateur est composé de différentes couches/feuilles pour l'anode, la cathode et le séparateur à travers lequel transitent les ions lithium durant le chargement et le déchargement de la batterie. Tout réside donc dans la microstructure établie pour ces feuilles. Le matériau choisi pour l'anode est souvent le graphite, mais pour ces chercheurs, il ne serait pas assez fiable dans le temps. Ils auraient donc choisi un matériau "plus lourd" que le graphite et qui permettrait de stocker l'énergie de manière "moins compacte".
Car la recherche pour le stockage de l'énergie est souvent concentrée sur les voitures électriques. Or, la grande différence qui (d'une certaine manière) aura facilité la création du diamant noir, c'est que le stockage d'énergie à domicile ne retient pas le critère du poids. Ce qui importait pour ces chercheurs était d'obtenir un système sûr, performant, pouvant se charger et se recharger des milliers de fois sans perte significative de courant, et qui soit surtout durable pendant au moins 20 ans, afin de fonctionner aussi longtemps que les panneaux photovoltaïques qui l'alimentent. Après deux années de travail, le prototype du diamant noir a été présenté publiquement en novembre 2010. Une production commerciale serait prévue à partir de l'été 2011 et Firma Dispatch Energy espère par la suite fournir 1000 foyers par an.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Selon le baromètre publié le 11 mai par l'Observatoire des énergies renouvelables (Observ'ER), la filière photovoltaïque "est devenue en Europe la première filière électrique renouvelable en puissance nouvellement installée". Selon Observ'ER, 13.023 mégawatts (1 MW= 1 million de Watts) ont été installés dans l'Union européenne au cours de l'année 2010 contre 5.918 MW l'année précédente.
Cette forte progression, qui atteint 120 %, permet aux européens de posséder désormais un parc d'une puissance de 29.327 MW ou plus exactement de mégawatts-crête (MWc) car, en matière d'électricité solaire, il convient de se référer à cette unité de mesure qui indique la puissance maximum que peut atteindre un panneau solaire lorsqu'il est exploité dans les meilleures conditions d'exposition et d'ensoleillement. Si l'on considère qu'une tranche de centrale nucléaire française délivre généralement une puissance de 1 300 MW, la puissance photovoltaïque européenne représente actuellement l'équivalent de 22 réacteurs atomiques.
Si c'est en Europe que sont posés aujourd'hui plus de 80 % des panneaux photovoltaïques, le reste du monde n'est pas en reste. L'engouement pour l'électricité solaire se vérifie également au Japon par exemple qui a installé, l'an dernier, 1 gigawatt (1GW = 1 milliard de Watts) de nouveaux panneaux alors que l'archipel n'en avait implanté que 483 mégawatts en 2009.
Il faut noter au passage que ce bond des installations solaires niponnes a été enregistré avant la catastrophe nucléaire de Fukushima. Les Etats-Unis, de leur côté, ont ajouté quelque 800 MW en 2010 (contre 473 MW en 2009). E la Chine s'y met aussi. Alors qu'elle réservait jusqu'à présent l'essentiel de sa production à l'exportation, elle a décidé dorénavant d'équiper son propre territoire. Du coup, sa puissance solaire fait également un bond de 160 MW installés en 2009 à 400 MW l'année suivante.
L'année 2010 n'ayant pas connu de catastrophe nucléaire, il ne faut pas chercher l'explication de cette envolée dans la peur qu'inspirerait l'électricité issue de l'atome. En revanche, et le baromètre d'Observ'ER le pointe, "cette croissance, beaucoup plus importante qu'attendu, s'explique par de nouvelles baisses significatives des coûts d'installation". Et de citer l'exemple du marché allemand qui, selon l'association allemande de l'énergie solaire BSW, a vu le prix des dispositifs en toitures passer de 4.000 euros par kilowatt (kw) en moyenne en 2009 à moins de 3.000 euros début 2010, puis autour de 2.550 euros début 2011.
La Tribune
|
|
|
|
|
|
|
|
Les atomes d'antihydrogène, ou antiatomes, sont composés d'un proton négatif (antiproton) et d'un électron positif (positon). C'est exactement l'inverse des atomes d'hydrogène classiques qui se composent d'un proton positif et d'un électron négatif. Les physiciens du CERN avaient déjà réussi, il y a quelques mois, à produire de pareils antiatomes mais la matière annihilant l'antimatière lorsqu'elles entrent en contact, les antiatomes produits n'apparaissaient que quelques millisecondes avant de disparaître.
Cette fois, la même équipe du CERN vient de publier un article dans la revue arXiv dans lequel est décrit un processus qui permet de conserver pendant un millier de secondes ces fameux antiatomes. C'est en refroidissant les antiprotons utilisés pour produire l'antihydogène que ce nouvel exploit est rendu possible. En effet, plus froid, les antiatomes formés sont moins énergétiques et peuvent être conservés dans une pièce magnétique.
Grâce à ce nouveau bond en avant, de nouvelles expériences devraient voir le jour. Celles-ci pourraient amener les scientifiques à définir les propriétés précises de l'antimatière, ce grand mystère de l'univers. Après le Big-Bang, les quantités d'antimatière et de matière auraient dû être égales, or, autour de nous, seule la matière existe. Les physiciens cherchent donc à comprendre où a disparu cette antimatère en étudiant de près des antiatomes.
Maxisciences
|
|
|
|
|
|
|
|
Après deux mois de pleine activité, le parc de panneaux photovoltaïques des Mées, dans les Alpes-de-Haute-Provence, a été officiellement inauguré le 12 mai, à l'occasion des Journées européennes du solaire. Il s'agit en réalité de deux parcs, l'un de 6 MW l'autre de 12 MW, fournissant l'équivalent de la consommation annuelle en électricité de 8.700 familles. Le site a été choisi par l'entreprise Enfinity et le Conseil général pour «son ensoleillement remarquable, et parce qu'il se situe sur une colline».
Cela permet aux panneaux de «bénéficier d'une température en-dessous de celle que l'on trouverait en bord de mer, or nous savons que plus la température augmente, plus le rendement des panneaux baisse.» Et Enfinity ne s'est pour l'instant pas trompé, puisque les premiers résultats «donnent des rendements supérieurs de 10 à 15 % par rapport à nos prévisions.» L'entreprise a cherché à «optimiser au mieux l'espace». Les 79.000 panneaux photovoltaïques s'étalent sur 36 hectares, «et nous avons fait en sorte qu'ils s'intègrent au paysage».
D'un investissement total de 60 millions d'euros, le site devrait être rentabilisé au bout «de 12-13 ans». Les modules sont entièrement chinois : «les matériaux européens sont 30 à 40 % plus chers» justifie José Chaves, Directeur technique d'Enfinity. «Mais nous n'avons pas choisi le moins cher du marché pour autant. En moyenne un module perd 20 % de rentabilité en vingt ans, contre 15 % pour ce modèle». Enfinity, qui emploie une trentaine de personnes à Aix-en-Provence, a d'autres projets de centrales photovoltaïques en France.
20 minutes
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les chercheurs du RIKEN Plant Science Center de Wako ont récemment fait d'importantes découvertes sur les mécanismes enzymatiques grâce auxquels la plante Arabidopsis se protège des altérations génétiques. Ces avancées apportent des éléments de compréhension supplémentaires sur l'évolution génétique végétale mais aussi animale.
L'ADN constitue le matériel génétique dont l'intégrité et la bonne transcription sont primordiales pour la survie de la cellule. Or il existe des séquences d'ADN ou "transposons", pouvant se répliquer au sein du génome d'un organisme et perturber, voire endommager certains gènes en s'y insérant. Afin de se prémunir de ces dangers génétiques, l'ADN peut modifier son degré de condensation. Il passe ainsi de l'euchromatine à l'hétérochromatine, état très compact empêchant tout accès aux gènes. Ces gènes deviennent alors silencieux car impossibles à atteindre et donc à transcrire. Ce changement de structure peut également s'appliquer aux transposons devenant alors inactifs et inoffensifs.
L'Arabidopsis Histone Déacétylase HDA6 est une enzyme présente dans la plante Arabidopsis et jouant un rôle clé dans la mise sous silence de certains gènes par condensation de chromatine. Cependant, l'influence de cette enzyme sur ce mécanisme était encore mal connue. Afin de mieux comprendre à quel niveau cette molécule intervient, les scientifiques ont cherché à savoir si elle participait aux phénomènes de méthylation et de modification d'histones, ces mécanismes impactant directement le degré de condensation de l'ADN.
En effectuant une étude comparative complexe de génome, les chercheurs ont réussi à démontrer que les plantes dont l'activité enzymatique d'HDA6 était réprimée, n'étaient plus en mesure de rendre inoffensifs les éléments tels que les transposons. D'autres expériences ont également révélé qu'avec l'aide d'une seconde enzyme nommée ADN méthyltransférase MET1, HDA6 se lie directement aux transposons puis modifie leur histone, les réduisant ainsi au silence. C'est la première fois que des travaux mettent en lumière la coopération entre l'enzyme de méthylation MET1 et l'enzyme HDA6 dans la répression de gènes potentiellement dangereux.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Plusieurs études épidémiologiques l’ont déjà suggéré : la diminution majeure voire la disparition de la charge virale entraînées par les antirétroviraux permettent d’espérer un impact très favorable sur la transmission du VIH. Ceci est confirmé par des travaux menés par le réseau américain d’essais portant sur la prévention du VIH (HIV Prevention trials network, HPTN). Ce groupe a lancé en 2005 une étude (HPTN 052) destinée à évaluer si le traitement par les antirétroviraux permettait de freiner la transmission sexuelle du VIH. Mille sept cent soixante trois couples sérodifférents ont été inclus dans cet essai, en Afrique, Asie et Amérique. Dans la grande majorité des cas (97 %), il s’agissait de couples hétérosexuels.
Les patients séropositifs présentaient un taux de CD4 compris entre 350 et 500 par millimètres cube. Deux groupes différents ont été constitués : dans le premier, les malades recevaient un traitement par trithérapie, dans le second, ils n’étaient pas placés sous antirétroviraux. Les résultats sont édifiants : dans le premier groupe, une seule transmission du VIH a été constatée, contre vingt sept dans le groupe non traité. Ces travaux devaient se poursuivre jusqu’en 2015 mais un comité indépendant de contrôle de cette étude, le Data and Safety Monitoring Board (DSMB), a souhaité l’immédiate révélation de ces résultats. Aussi, le réseau s’est-il exécuté et précise dans un communiqué que tous les patients compris dans le groupe sans ARV s’étaient vu offrir désormais un traitement par trithérapie.
Ces données soulèvent aujourd’hui une importante vague d’espoir. « Cette percée scientifique change considérablement la donne et assurera l’avancement de la révolution de la prévention. Elle place le traitement anti VIH au rang des nouvelles options de prévention prioritaires » a commenté le président de l’ONUSIDA, Michel Sidibé. De fait, ces résultats confortent les discours de ceux qui défendent la nécessité d’un accès massif aux trithérapies pour tous les patients et ce dès la découverte de la séropositivité, afin d’enrayer la propagation de l’épidémie. Cependant, certains n’oublient pas d’appeler à la prudence, en soulignant que ces travaux ne doivent pas encore inciter les séropositifs traités à abandonner le préservatif.
JIM
|
|
|
|
|
|
|
|
En agroalimentaire, le sel, ou chlorure de sodium, est un ingrédient clé, largement impliqué dans la structuration des produits et garant d’une sécurité microbiologique satisfaisante. Il joue également un rôle fondamental dans la qualité organoleptique des aliments. Mais consommé de façon excessive, le sel agit comme facteur de développement des maladies cardiovasculaires.
C’est pourquoi les autorités sanitaires, comme l’Organisation mondiale de la Santé, militent pour une réduction de sa teneur dans les aliments, de manière à atteindre la recommandation nutritionnelle fixée aujourd’hui à 5 g/jour, soit deux à trois fois moins que la consommation quotidienne moyenne actuelle de certains pays développés dont la France. Réduire la teneur en sel des aliments sans en altérer les propriétés organoleptiques et technologiques est à ce jour un enjeu majeur pour le secteur de l’agroalimentaire et un défi pour la recherche, car les questions scientifiques sous-jacentes sont complexes.
Les scientifiques ont cherché à comprendre les mécanismes à l’origine de la libération et de la perception du sel en bouche. Des méthodes sensorielles et instrumentales ont d’abord permis de mettre en évidence l’influence de la composition, de la structure et de la texture de produits laitiers gélifiés modèles sur le transfert du sel du produit vers la salive, puis sur la perception salée. Pour cela, les chercheurs ont fait appel à un panel d’individus entraînés à la dégustation pour évaluer le goût salé et la perception de texture des produits. Des prélèvements de salive ont été effectués sur ces sujets pour mesurer la teneur en sel au cours de la consommation des produits.
Dans un deuxième temps, grâce à des approches expérimentales et mathématiques, ils ont montré que l’aire de contact entre le produit alimentaire et la salive est un paramètre déterminant pour expliquer la libération et la perception de la flaveur d’un aliment. Ces résultats sont à l’origine d’un modèle mécanistique original. Il permet de décrire et de quantifier les caractéristiques du produit et de l'individu qui expliquent la libération du sel. Alors que la physiologie du consommateur, et en particulier son efficacité masticatoire, sont des éléments clés de ce processus, il est envisageable, sur la base de ce modèle, de développer de nouveaux produits pour des classes spécifiques d’individus, personnes âgées, bébés… En jouant sur la capacité du produit à se fragmenter par le biais du procédé et de la formulation, il devient possible de formuler des aliments avec des teneurs réduites en sel tout en gardant leur goût salé, par exemple pour des personnes âgées qui peuvent voir leur capacité masticatoire réduite.
L’ensemble de ces résultats constitue une approche originale de la question de la réduction du sel dans les aliments. Ils combinent plusieurs approches expérimentales, s’intéressent de façon novatrice à ce qui se produit en bouche et concernent des produits modèles dont les textures et structures vont du liquide au solide. Ils démontrent que la perception du sel constitue un évènement multi factoriel qui implique des interactions physico-chimiques entre les constituants de la matrice du produit, des propriétés de structure et de texture, des processus physiologiques et de possibles interactions sensorielles. Au final, ces résultats représentent une avancée majeure dans la compréhension de la perception du sel. Ils ouvrent ainsi la voie à de nouvelles perspectives de formulation de produits à teneur réduite en sel qui répondent à la fois à des critères organoleptiques et nutritionnels.
INRA
|
|
|
|
|
|
|
|
L'horloge biologique circadienne (circa: proche de, dies : 24h) est indispensable à la vie de tous les organismes vivants. Elle permet de rester synchronisé à la journée de 24 heures définie par l’alternance du jour et de la nuit. Toutes les grandes fonctions biologiques sont, directement ou indirectement, contrôlées par ce système : le cycle veille-sommeil, le système cardiovasculaire, digestif et immunitaire mais aussi les sécrétions hormonales, les performances cognitives... La vitesse de l'horloge n'est pas exactement la même pour toutes les espèces. Chez l’Homme, le cerveau la règle entre 23h30 et 24h30. Tous les jours, les "pendules doivent donc être remises à l’heure" par la lumière, en particulier le cycle lumière-obscurité qui corrige, selon les individus, l’avance ou le retard par rapport à la durée du jour de 24 heures.
Dans cette étude réalisée dans un laboratoire américain (Harvard Med School, Boston, USA), les chercheurs ont mesuré la longueur du cycle de l’horloge circadienne intrinsèque de 52 femmes et 105 hommes, d’âges compris entre 18 et 74 ans. Les participants de l’étude ont été observés entre 2 et 6 semaines, dans un environnement spécial, en l’absence d’informations temporelles, pour déterminer la vitesse du cycle de leur horloge circadienne.
D’une part, l’équipe américaine en collaboration avec Claude Gronfier de l’Inserm, relève que la durée moyenne du cycle circadien est, en moyenne, très légèrement supérieure à 24 heures chez les hommes et les femmes, cela indépendamment de l’âge. D’autre part, l’étude apporte des éléments très nouveaux. L’horloge biologique circadienne des femmes est plus rapide que celle des hommes : la durée du cycle circadien des femmes est, en moyenne, plus court de 6 minutes par rapport à celui des hommes. De plus, les chercheurs ont conclu que les femmes ont 2,5 fois plus de chance que les hommes d’avoir un rythme circadien de moins de 24 heures. Pour ces dernières, cela signifie que la journée définie par l’horloge biologique est terminée avant que 24 heures ne soient écoulées. Ce décalage nécessite donc un réajustement de l’horloge tous les jours par rapport à la durée du jour de 24 heures.
"Ce résultat pourrait expliquer pourquoi les femmes se réveillent en moyenne plus tôt, explique Claude Gronfier. En effet, si le réajustement n’est pas effectif, l’horloge des femmes prend de l’avance chaque jour et elles ont envie de se coucher et de se lever un peu plus tôt que la veille. Dans la vie quotidienne, les femmes se couchent plus tard que ce que recommande leur horloge biologique mais celle-ci sonne toujours tôt. "Cette désynchronisation entre l’heure biologique et l’heure réelle du coucher entraînerait une diminution de la durée du sommeil et des difficultés à s’endormir. Cela pourrait expliquer pourquoi l’insomnie a une prévalence beaucoup plus élevée parmi les femmes", suggère Claude Gronfier.
INSERM
|
|
|
|
|
|
|
|
Une opération chirurgicale à partir de cellules souches adultes s'est avérée vitale pour une une fillette de 10 ans qui avait développé, à l'âge d'un an, un caillot de sang dans le vaisseau reliant son intestin et son foie, ce qui était potentiellement mortel en cas d'hémorragie.
Michael Olausson, chirurgien au Sahlgrenska University Hospital à l'université de Göteborg en Suède, a utilisé le vaisseau sanguin d'un donneur dont il a retiré les tissus et l'ADN avant de l'ensemencer de cellules souches issues de la moelle osseuse de la fillette afin de générer un vaisseau sain. "Nous avons effectué l'opération il y a maintenant trois mois et le résultat était très bon, sans complications graves. [...] La jeune fille est en bonne santé et nous croyons que son pronostic est très bon. Puisque la veine a été produite avec ses propres cellules souches, elle n'a pas besoin de prendre de médicaments empêchant le rejet", a déclaré Michael Olausson. Selon lui, des recherches plus poussées pourrait permettre de régénérer d'autres organes et des artères.
En 2008, un procédé similaire avait été utilisé à Barcelone par des chirurgiens qui avaient produit une nouvelle trachée pour une femme de 30 ans dont les voies respiratoires avaient été endommagées par la tuberculose. Un enfant britannique avait également bénéficié, en 2010, d'une greffe de trachée reconstituée à partir de ses propres cellules souches.
Généthique
|
|
|
|
|
|
|
|
Particulièrement méconnues du grand public, les tumeurs stromales gastro-intestinales (GIST), sont des tumeurs malignes du tube digestif qui ont comme origine un gain de fonction d'un gène activateur de tumeur. Résistantes aux chimiothérapies, elles se soignent actuellement grâce à un traitement standard : l'imatinib, un inhibiteur de tyrosine kinase. Il agit en bloquant la prolifération des cellules du GIST de façon ciblée. Toutefois, il n'est efficace que dans 60 % des cas.
Laurence Zitvogel et ses collègues de l'institut de cancérologie Gustave Roussy (IGR, Villejuif) ont identifié chez certains patients répondant mal à la thérapeutique classique un nouveau marqueur spécifique situé à la surface de lymphocytes « Natural killer »(NK). Baptisé Nkp30C, ce dernier résiste au traitement en sécrétant de l'interleukine-10, protéine connue pour jouer un rôle dans la diminution de la réponse immunitaire. En analysant les différentes formes de marqueurs, les chercheurs ont montré que seul ce dernier entraînait ce type de réaction. Ces travaux suggèrent qu'en analysant le profil des « Natural killer » des patients, on peut prédire ceux qui répondront mal au traitement, et du coup, induire chez eux une restitution de la réponse immunitaire. Il est donc envisageable à l'avenir d'améliorer dans tous les cas le taux de guérison.
Information Hospitalière
|
|
|
|
|
|
|
|
La plupart des traitements classiques pour lutter contre les cancers agissent à travers un mécanisme cytotoxique dont le but ultime est de détruire l'ADN des cellules tumorales, pour éviter leur prolifération et entraîner leur sénescence. Ces dernières, particulièrement malignes, trouvent souvent le moyen de résister, notamment en mettant en action la machinerie de réparation de l'ADN, et particulièrement la recombinaison homologue.
C'est à cette voie que Jacob Aten et ses collègues de l'Academic Medical center d'Amsterdam ont décidé de s'attaquer. En premier lieu, ils ont constaté chez la souris, qu'une hausse de température de l'organisme de quelques degrés (de 37°C à 41°C) permettait d'inhiber le mécanisme de recombinaison homologue. Ils ont ensuite montré que cette même hausse de température agissait directement sur les cellules cancéreuses, les rendant plus sensibles au traitement qui permet d'inhiber la protéine PARP-1, dont le rôle principal est de reconnaître les cassures de l'ADN et d'alerter la machinerie cellulaire en vue d'une réparation.
Quelques degrés en plus lors d'un traitement anticancéreux pourraient ainsi permettre, en jouant sur deux points essentiels de la réparation d'ADN, une meilleure réponse de l'organisme malade et ainsi améliorer ses chances de rémission. Ces travaux pourraient donc avoir des applications prometteuses dans le traitement de nombreuses tumeurs.
Information Hospitalière
|
|
|
|
|
|
|
|
Un cerveau humain pourrait être simulé en détail sur un superordinateur d’ici 2023, selon un ambitieux projet comparé par des chercheurs au premier pas sur la Lune, au séquençage du génome humain ou à l'association de milliers de physiciens des particules au Cern à Genève. «Il s’agit de faire travailler ensemble des centaines, voire des milliers de scientifiques, comme cela a été fait en physique, pour aboutir à un modèle du cerveau humain», explique Henry Markram, promoteur du Human Brain Project qui pourrait aider à comprendre et soigner les maladies du cerveau. «C’est le Cern du cerveau», ajoute le fondateur du projet Blue Brain lancé en 2005 en Suisse à l’Ecole polytechnique fédérale de Lausanne.
Avec des investissements de «quelques dizaines de millions de francs suisses» et un superordinateur Blue Gene, son équipe réussit deux ans plus tard à modéliser le fonctionnement biologique de 10.000 neurones du cortex de rats, formant une unité de base, la «colonne corticale». Il fallait alors l’équivalent d’un PC grand public pour modéliser un seul neurone. «C’est pourquoi nous avions besoin de 10.000 processeurs pour 10.000 neurones. Aujourd’hui nous avons 16.000 processeurs, mais nous pouvons déjà reproduire quelque 360.000 neurones», a-t-il précisé en marge d’une conférence sur les technologies émergentes organisée du 4 au 6 mai par la Commission européenne à Budapest.
Une fois posées les bases, avec informatique et processus de modélisation, M. Markram s'est s’associé à d’autres équipes de chercheurs européens pour aller plus loin : reproduire numériquement le fonctionnement des 100 milliards de neurones d’un cerveau humain.
Cela suppose d’avoir un ordinateur capable de faire 1 milliard de milliards (1 suivi de 18 zéros) d’opérations par seconde, coûteux en énergie (15 megawatts) à faire fonctionner. D’où l’espoir d’obtenir un financement de «1 à 3 milliards d’euros» de l'Union européenne dans le cadre du Human Brain Project. «Si nous obtenons ce financement, nous promettons de fournir dès 2023 une infrastructure capable de simuler le cerveau humain et de faire des simulations de médicaments», assure M. Markram, alors que le projet qu’il défend fait partie des six présélectionnés récemment par Bruxelles. Mais seulement deux seront retenus d'ici un an et pourront recevoir quelque 100 millions d’euros par an pendant dix ans.
Ne pas voir le projet Human Brain choisi serait «une tragédie pour la société», alors qu’il y a déjà sur terre «deux milliards de personnes souffrant de maladies du cerveau» et que «l’industrie pharmaceutique s’est retirée des recherches sur le cerveau, parce que c’est trop complexe», insiste le neurobiologiste. Les instituts de recherche académiques peuvent le faire, dit-il, évoquant la possibilité de tester d'éventuels médicaments sur des modèles numériques de cerveau humain reproduisant des maladies qui l'affectent (Alzheimer, Parkinson, autisme, dépression...). Des percées en informatique et en robotique sont aussi attendues grâce à ce projet, font valoir ses défenseurs.
20 minutes
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Lew Fulton, de l’Agence internationale de l’énergie, a communiqué les dernières études de l’AIE sur la production pétrolière conventionnelle d’ici à 2035. «La baisse de la production du pétrole s’avère plus rapide que ce qu’on avait cru il y a quelques années. Ce sera de plus en plus difficile de fournir du pétrole, il faudra donc trouver d’autres sources, comme les ressources au fond des océans, les carburants synthétiques….». Parallèlement, les projections de mise en circulation de véhicules légers dans le monde ont de quoi inquiéter au regard de cette situation. «Nous devrions passer de 800 millions de voitures aujourd’hui, à 1,6 milliard en 2035. Nous pourrions même atteindre 2,5 milliards de véhicules en 2050.» Conséquence : «Si l’on ne change pas de mode de production d’énergie, les émissions de CO2 vont doubler d’ici à 2050.» Lew Fulton insiste : «Pour atténuer cela, nous avons besoin d’une grosse contribution des transports, cela passe par le développement des transports en commun à travers les villes, jusqu’à un investissement très important dans les véhicules électriques et les biocarburants, pour arriver à 50 % de carburants qui ne soient plus d’origine fossile.»
Les projections de Jean Delsey, conseiller scientifique à l’Ifsttar, et président du groupe de travail Energie et Environnement au Predit, se veulent plus «réalistes». «On peut toujours échafauder des scénarios qui font rêver, mais la réalité nous rattrape souvent. Nous continuons de travailler sur le moteur thermique, qui est et restera encore le plus utilisé. Il faut savoir qu’il roule encore en France entre 6 et 8 millions de véhicules légers de plus de 15 ans. Cela dit, le potentiel de gain sur le moteur thermique est très important : nous pouvons réduire les cylindrées, alléger les véhicules, dont le poids a doublé en 35 ans. Mais parallèlement, nous travaillons aussi sur une nouvelle génération de véhicules tout électrique, et sur les solutions hybrides. A mon avis, la voiture en 2050 ce sera 40 % de thermique, 20 % d’électrique, et 40 % d’hybride, qui iront du micro-hybride au full-hybride.» L’hybride apparaît pour le Predit comme «la meilleure solution entre le tout thermique et le tout électrique, que l’on maîtrise encore assez mal.»
La technologie ne fera pas tout. Pour nombre de spécialistes, il faut mettre en place des politiques publiques incitatives pour favoriser du report modal de la voiture vers les transports publics. «La Communauté urbaine de Bordeaux vient de délivrer son nouveau schéma directeur pour 2030, explique Gérard Chausset, vice-président de la CUB chargé des transports de demain. Ce document a pour objectif d’augmenter de 211 % la fréquentation et l’utilisation des transports en commun. Mais ce projet métropolitain ne s’arrête pas aux transports, il projette aussi de densifier l’agglomération, très étirée. Nous aurons plus de 900.000 habitants en 2030 (contre un peu plus de 700.000 aujourd’hui), s’ils ont le même taux d’utilisation de la voiture ce sera un problème. Il faut donc réduire fortement son usage.»
20 minutes
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|