|
|
Edito
Les énergies renouvelables dépassent le nucléaire aux Etats-Unis
Les Etats-Unis sont-ils en train de se convertir aux énergie renouvelables ? Peut-être si l'on en croit deux rapports qui révèlent que la production d'énergies renouvelables ne cesse de croître aux États-Unis. Selon le dernier rapport de la US Energy Information Administration, les énergies renouvelables ont représenté 11 % de la production américaine en 2009, supérieure à l'énergie nucléaire. Avec 1210 MW installés d'énergies renouvelables, la capacité totale ajoutée en 2009 atteint 4000 MW. Les Etats-Unis sont désormais les plus grands producteurs d'énergie éolienne au monde, devant l'Allemagne, selon le GWEC (Global Wind Energy Council), avec une capacité totale de 25 170 MW contre 23 900 MW pour l'Allemagne. Mais, fait remarquable, les Etats-Unis devraient cette année, prendre également la tête du secteur de l'énergie solaire. La production d'électricité éolienne américaine a permis une économie de 54 millions de tonnes de CO2 en 2009, réduisant les émissions de carbone du secteur de l'électricité de 2 pour cent, soit l'équivalent du retrait de 9 millions de voitures, a déclaré AWEA. La production d'électricité éolienne connaît une importante croissance outre Atlantique pour plusieurs raisons : hausse générale du pétrole, prise de conscience environnementale des Américains et politiques très volontaristes de certains états. Les nouveaux projets éoliens aux Etats-Unis ont représenté 42 % du total de la nouvelle capacité de production d'électricité du pays l'an dernier. L'éolien comptait en 2007 pour 35 % de toutes les nouvelles infrastructures de production d'électricité. Selon un rapport du Ministère de l'Energie américain (DOE), l'énergie éolienne pourrait fournir 20 % de l'électricité des Etats-Unis d'ici 2030, contre 3 % actuellement, permettant d'éviter 7,6 milliards de tonnes de CO2 sur cette période. Pour réduire fortement les émissions de gaz à effet de serre et renforcer notre sécurité énergétique, nous aurons besoin de produire de l'énergie propre à très grande échelle, et pour cela il faut étendre les capacités de production éolienne aux Etats-Unis » souligne Andy Karsner, sous-secrétaire du DOE aux énergies renouvelables. Le rapport présente un scénario potentiel pour faire passer la production actuelle d'énergie éolienne de 16,8 GW à 304 GW d'ici 2030. Les coûts d'intégration intermittente de l'électricité éolienne dans le réseau de distribution sont modestes à moins de 0,5 cent par kilowatt, ajoute le Ministère. Les Etats-Unis pourraient par ailleurs parvenir d'ici à 2030 à produire 10 % de leur électricité grâce à l'énergie solaire. C'est ce qu'affirme un rapport de l'organisation écologiste indépendante Environment America publié le 9 mars 2010 et présenté devant le Congrès américain. Le rapport a été présenté lors d'une conférence de presse aux côtés de responsables d'entreprises et du sénateur Bernie Sanders, auteur d'un projet de loi qui vise à couvrir aux Etats-Unis 10 millions de toits de panneaux solaires en 10 ans. Chaud partisan des énergies propres, le sénateur Sanders a salué la publication du rapport, qui estime que les Etats-Unis ont le potentiel pour obtenir 10 % de leur production d'électricité par énergie solaire d'ici à 2030, contre environ 0,1 % en 2008, selon des chiffres de l'Energy Information Administration (EIA). Le rapport examine une "grande quantité de technologies et d'outils" pour développer l'énergie solaire aux Etats-Unis. M. Sanders vient de déposer un projet de loi visant à "augmenter la quantité d'électricité photovoltaïque en offrant des remboursements pour l'achat et l'installation" de 10 millions de systèmes d'alimentation électrique solaires. Le texte prévoit également une augmentation de la capacité de chauffage d'eau de 38 millions de litres d'ici à 2019. "Nous dépensons 350 milliards de dollars à importer du pétrole d'Arabie Saoudite et d'autres pays chaque année, les Etats-Unis doivent passer du pétrole étranger à l'indépendance énergétique", a déclaré le sénateur Sanders, qui préside la sous-commission des emplois verts et de la nouvelle économie. Le texte de loi insiste sur le "potentiel énorme" des Etats-Unis à développer leur production d'électricité d'origine solaire. Il propose le remboursement de 1,75 dollar par watt installé en 2010, un taux qui baissera sur une dizaine d'années jusqu'à 0,25 watt en 2019. On voit donc que la nouvelle administration américaine, la communauté scientifique mais aussi les entreprises considèrent comme réaliste, sans innovations technologiques majeures, l'objectif visant à produire d'ici 2030 au moins un tiers de la consommation électrique à l'aide de l'ensemble des énergies renouvelables. A plus long terme - 2050 - l'énergie solaire devrait dépasser l'énergie éolienne et devenir prépondérante dans le bouquet énergétique américain. En 2008, plusieurs scientifiques et entrepreneurs américains ont fait sensation en publiant dans « Scientific American un long article (http://www.science.smith.edu/~jcardell/Readings/uGrid/Solar_Plan_08.pdf) dans lequel ils proposent un « Grand plan solaire » de 80 000 km2. Cette gigantesque infrastructure combinerait solaire photovoltaïque et thermodynamique et monterait en puissance jusqu'en 2050. A cette date, elle produirait 3 000 GW, ce qui représenterait environ 70 % de la consommation électrique américaine prévue à cette échéance. Cette électricité solaire serait acheminée vers les sites de consommation grâce à un réseau « HVDC » transportant du courant continu à haute tension. Les Etats-Unis, sous l'impulsion politique du Président Obama, sont en train de mobiliser toutes leurs capacités d'innovation et d'entreprise pour s'affranchir des énergies fossiles et promouvoir les énergies renouvelables dont ils possèdent, il est vrai, d'immenses gisements. Face à cette nouvelle volonté américaine, l'Europe doit passer à la vitesse supérieure, notamment dans le cadre d'un partenariat euro-méditerranéen et de projet comme « Desertech » pour produire, elle aussi, l'essentiel de son énergie de manière propre d'ici le milieu de ce siècle. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Petit à petit, la fibre optique fait son nid. Le dernier Observatoire du très haut débit de l'Arcep (le régulateur des télécoms), qui couvre les trois derniers mois de l'année 2009, montre que les opérateurs ont accéléré les déploiements dans les immeubles. Le cadre réglementaire qui clarifie enfin les règles du jeu en termes de mutualisation des réseaux FFTH (fibre jusqu'à l'abonné), avec notamment le concept de fibres sunuméraires, commence à faire ses effets. A fin décembre 2009, l'Arcep a ainsi comptabilisé plus de 4,5 millions de logements se situant à proximité d'un réseau en fibre optique. Plus de 40 000 immeubles sont désormais raccordés à un réseau fibre (+ 11% sur un trimestre) et 800 000 logements se situent dans ces immeubles et sont donc déjà éligibles à une offre FTTH (+ 8% sur le trimestre). Reste que les abonnements tardent à décoller : on ne compte que 70 000 abonnés FTTH, c'est néanmoins 20 000 de plus par rapport à fin juin 2009 mais seulement 10 000 de plus par rapport à fin septembre. Il faut dire que les offres des opérateurs sont encore assez rares, excepté Numéricable qui affiche plus de 220 000 abonnés mais en utilisant la technologie FTTB (fibre jusqu'à l'immeuble). Les déploiements FTTH devraient néanmoins encore s'accélérer puisque les opérateurs ont officialité leurs offres d'accès à leurs réseaux dans le cadre de la mutualisation. Sur la base de ces offres, les opérateurs peuvent maintenant engager des discussions préalablement à la signature des accords de co-investissements. L'Arcep a également fourni ses derniers chiffres concernant le haut débit. Au 31 décembre 2009, la France compte 19,69 millions d'abonnements haut et très haut débit (+ 10% sur un an) dont 19,4 millions d'abonnements haut débit (95% en ADSL). Le marché de gros du haut débit par DSL atteint 9,7 millions d'accès (+ 1,1 million en 2009) dont 7,7 millions accès en dégroupage (6,4 millions en dégroupage total). NO
|
|
|
|
|
|
|
|
Contrairement à ce que l'on pourrait croire, beaucoup de petits éditeurs, très présents au Salon du livre de Paris (alors que Hachette par exemple a énormément réduit sa présence), plébiscitent les opportunités offertes par le numérique. Le défi du numérique est dans toutes les têtes à l'heure des tablettes de lecture comme le Kindle d'Amazon, de l'iPad d'Apple qui doit débarquer en France fin avril, ou encore de celle de Sony. Autre défi, Google, qui a déjà numérisé 12 millions d'ouvrages en puisant dans les fonds des bibliothèques américaines. « Qu'on tremble ou qu'on s'en réjouisse, c'est un fait : le numérique est en train de bouleverser l'édition", souligne à l'AFP Pascal Arnaud, patron des éditions "D'un noir si bleu", créées en 2006 en Bourgogne, qui publient des nouvelles et quelques romans. "Les livres numériques ne représentent qu'à peine 3 % des ventes dans le monde, cela pourrait monter à 20 ou 30 % dans cinq ans", estime-t-il au Salon du livre qui se tient Porte de Versailles jusqu'au 31 mars. Le PDG d'Hachette Livre Arnaud Nourry mise lui sur "10 à 15 % d'ici cinq à sept ans". François Collet, directeur des éditions "Rouge inside", nées en 2009 à Lyon, confie faire déjà de la "bi-édition". "Nous ne publions que des traductions : le livre lui-même, sur papier pour l'instant, et des bonus en ligne (post-face d'un traducteur, liens vers le site ou le blog d'un auteur)". Le Guatémaltèque Allan Mills publie déjà dans toute l'Amérique latine en version numérique. "Tous les manuscrits m'arrivent numérisés, c'est ma consigne, et moi, je les lis sur mon BlackBerry", avoue-t-il. "L'ère numérique représente un gros espoir pour nous, les petits, et cela ne tuera pas l'édition papier, elles cohabiteront", ajoute-t-il. "Cela affectera sans doute plus la science-fiction, l'édition jeunesse, les actes de colloque, etc." Pour Rodney Saint-Eloi, éditeur canadien d'origine haïtienne, installé à Montréal, "grâce au numérique, nous allons vers une démocratisation de la lecture, cela abolit les distances. C'est l'avenir des petits éditeurs. C'est l'indépendance et l'essor possible de la 'bibliodiversité'", affirme à l'AFP le patron des éditions "Mémoires d'encrier" fondées en 2003. "Près de 60 % du prix d'un livre, c'est le transport. L'entreposage, la distribution, la diffusion, ce sont de gros problèmes pour les petits éditeurs. Sur le web, on est tous à armes égales", s'enthousiasme-t-il. "Dans beaucoup de pays du Sud, le livre pourra se démocratiser au lieu de rester élitiste. Acheminer un ouvrage par exemple au Sénégal, c'est hors de prix. Et souvent, les gens n'ont pas d'adresse physique mais presque toujours une adresse électronique ! Le numérique, c'est une chance pour les plus vulnérables, lecteurs ou... éditeurs", relève M. Saint-Eloi. "Pour nous, les petits, le vrai barrage c'est la distribution. Le numérique et internet, les librairies électroniques sont une formidable opportunité, pas une menace", renchérit Pascal Arnaud. Cet éditeur de Saône-et-Loire s'est aussi allié à un confrère alsacien, Calleva, pour publier des extraits numérisés de leurs livres, accessibles notamment sur les smartphones. Expansion
|
|
|
|
|
|
|
|
En termes de sécurité informatique, la meilleure méthode d'encryptage de données est inutile s'il suffit à un pirate d'intercepter la clé en chemin. C'est à ce problème que s'est intéressé Jacob Scheuer, de l'Université de Tel Aviv. Il propose une méthode s'appuyant sur un laser à fibre ultra-long (UFL), soit un laser qui se propage via une fibre optique. Celui-ci génère aléatoirement une clé binaire (une suite de 1 et de 0) qu'il transmet sous forme de signaux lumineux et sécurise par l'utilisation d'un système de miroirs. "La sécurité du processus est assurée parce qu'une personne espionnant ce flux de données sera incapable de savoir si un signal laser correspond à un 1 ou à un 0", explique le scientifique à L'Atelier. En effet, pour chaque bit de données (1 ou 0) envoyé, l'expéditeur et le destinataire procèdent à un jeu de miroir. Ils en ont chacun deux à leur disposition - respectivement associés au signal 1 et au 0 - qu'ils vont choisir au hasard avant chaque envoi. Lorsque les miroirs employés sont identiques, le signal est répercuté selon une longueur d'onde identifiable et est donc ignoré. A l'inverse, lorsque leurs choix sont complémentaires (c'est à dire correspondant à 1/0 ou 0/1), le signal sera transmis selon une longueur d'onde moyenne. Impossible à un observateur de déterminer quoi que ce soit en mesurant celle-ci. "A l'inverse, l'expéditeur et le destinataire légitimes peuvent déduire de leur propre choix quel miroir a été sélectionné à l'autre extrémité", poursuit le chercheur. Et donc si le signal correspond à 1 ou à un 0. Le processus se poursuit jusqu'à ce qu'une séquence suffisante ait été transmise : la clé. Celle-ci correspond donc à une séquence de choix de miroirs, moins tous les cas où le miroir sélectionné par l'envoyeur et le receveur était identique. Pour faire fonctionner son système, le chercheur israélien a développé son propre laser. "Un laser à fibre conventionnel mesure quelques dizaines de mètres de long'', explique-t-il. "Celui que j'ai conçu mesure 200 kilomètres". En investissant dans les infrastructures nécessaires, on pourrait même imaginer relier deux entités à plus de 4000 kilomètres de distance, sans perte de signal. Ce système serait, in fine aussi fiable que la cryptographie quantique mais bien moins onéreux. Atelier
|
|
|
|
|
|
|
|
Le Times deviendra en juin le premier quotidien britannique à passer au tout-payant sur l'internet, conformément au credo de son propriétaire Rupert Murdoch, qui veut rentabiliser l'information en ligne dans un paysage médiatique en plein bouleversement. Dans quelques semaines, il en coûtera une livre (1,12 euro) par jour ou deux livres par semaine pour consulter les sites internet du quotidien né il y a plus de deux siècles et de sa version dominicale, le Sunday Times, a annoncé leur éditeur, News International (NI), filiale du groupe News Corp. de Rupert Murdoch. Les deux journaux seront les premiers des quatre titres de News International à passer au modèle payant sur la Toile. Le quotidien The Sun et l'hebdomadaire dominical News of The World, des tabloïdes à grand tirage, suivront à une date non fixée, a fait savoir Rebekah Brooks, la patronne de News International. Le Times et le Sunday Times deviendront au passage les premiers journaux nationaux britanniques à adopter un modèle totalement payant sur l'internet, conformément à la stratégie annoncée l'an dernier par Rupert Murdoch, qui veut rompre avec le concept de l'information gratuite en ligne. Pour l'instant, dans le pays, seul le Financial Times a adopté un modèle partiellement payant, permettant la consultation gratuite d'une dizaine d'articles par mois. Au sein de News Corp., le site du quotidien financier américain Wall Street Journal est déjà payant, une situation qui remonte toutefois bien avant son rachat en 2007 par le groupe de Rupert Murdoch. Mais s'il est une première au Royaume-Uni, le passage du Times au modèle payant ne fait qu'illustrer une tendance de fond de la presse mondiale. Les éditeurs de journaux, confrontés à la chute du lectorat et des recettes publicitaires des quotidiens dans de nombreux pays, tentent par tous les moyens de monétiser leurs contenus sur l'internet ou sur les autres supports numériques (comme l'iPhone et l'iPad) pour redresser leurs comptes. Beaucoup, réticents à passer au tout-payant par peur de faire fondre leur audience en ligne, se se contentés d'une offre semi-gratuite (ou "freemium"), comme le Financial Times. En France, c'est le cas du Monde, de Libération et depuis peu du Figaro. Aux Etats-Unis, le prestigieux New York Times a également choisi ce modèle. Dans ce contexte, News Corp. a lancé une offensive frontale contre la BBC, l'accusant d'étouffer la presse écrite en multipliant les contenus gratuits sur l'internet, avec l'argent du contribuable. LP
|
|
|
|
|
|
|
|
Le CHRU de Montpellier vient d'équiper une des salles du pôle digestif d'un dispositif robotisé, Artis Zeego, pour favoriser la pratique de la chirurgie mini-invasive et de la radiologie interventionnelle. L'une des sept salles du bloc opératoire du pôle digestif du CHRU de Montpellier vient d'être équipée d'une nouvelle génération d'équipement robotisé dédié à la chirurgie mini-invasive et à la radiologie interventionnelle. Dans ces deux pratiques ou disciplines médicales, les radiologues spécialisés ou les chirurgiens réalisent des interventions chirurgicales sous contrôle de l'imagerie en temps réel. Présenté pour la première fois au RSNA (Réseau National de Surveillance Aérobiologique) en octobre 2007, ce nouveau dispositif, baptisé Artis Zeego et mis au point par Siemens, est une transposition et une adaptation des robots des chaînes de montage des voitures. Doté d'un bras automatisé multiaxial, l'ensemble est également équipé d'un écran plat haute résolution permettant de configurer le type d'imagerie souhaitée et d'accéder à toute l'information clinique. Localisée au sein du bloc opératoire, cette salle offre un « gage de sécurité » pour la prise en charge de patients complexes, l'anesthésie monitorée et la réduction du risque infectieux. Cette mutualisation des équipements entre les différents spécialistes (radiologues, chirurgiens digestifs, gastro-entérologues) permet « l'innovation et la recherche autour des techniques mini-invasives qui impliquent aujourd'hui une approche multidisciplinaire en regroupant autour du même patient toutes les compétences » souligne le CHRU. Le coût total de cette salle (matériel et travaux) est de 1,8 million d'euros. IP
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Selon le ministre de l'Énergie britannique, Lord Hunt, les courants maritimes de l'Angleterre pourraient alimenter en énergie 15 millions d'habitations d'ici 2015. Les énergies renouvelables houlomotrices (des vagues) et marémotrices (fournies par le mouvement des marées), en plus de diminuer les émissions de CO2, pourraient également créer plusieurs milliers d'emplois selon le gouvernement britannique. Bien que plus chères que les énergies solaire et éolienne, elles seraient plus sûres que ces dernières, le mouvement des marées étant plus constant que le rayonnement solaire ou que la force du vent. Lord Hunt a ainsi lancé un plan d'actions pour la mise en place de l'énergie marémotrice à grande échelle. Les investisseurs seront incités à investir par des primes, des aides pour développer le secteur encore très peu reconnu par le marché, une chaîne logistique sera mise en place... L'exploitation de l'énergie marine pourrait diminuer de 70 millions de tonnes la quantité de CO2 émise par la Grande-Bretagne. Ce pays est bordé par les eaux, ce qui lui permet de bénéficier d'une source énergétique très vaste. La première usine marémotrice SeaGen, qui produit 1,2 mégawatt, permet déjà de fournir de l'énergie à 1.000 habitations. MS}2}
|
|
|
|
|
|
|
|
L'Initiative Industrielle Desertec DII se renforce à l'international. Après de longues négociations, l'initiative, jusqu'à présent caractérisée par une forte dominante d'entreprises allemandes, vient d'accueillir 4 sociétés originaires de nouveaux pays. L'adhésion des entreprises françaises Saint-Gobain-Solar, italienne Enel Green Power, marocaine Nareva Holding et espagnole RED Electrica, représente un pas important vers l'internationalisation, selon Paul van Son, directeur de la DII. Desertec est actuellement le plus ambitieux projet d'infrastructures à l'échelle mondiale. Son objectif est la construction de grandes centrales solaires thermiques à concentration (CSP, en Afrique du Nord et au Moyen-Orient, afin d'alimenter en électricité durable la région elle-même et l'Europe au moyen d'un réseau à courant continu à haute tension (CCHT). Le volume d'investissement a été estimé à 400 milliards d'euros. L'initiative DII a été fondée durant l'été 2009 à Munich par 12 entreprises, dont 9 allemandes : l'assureur Münchener Rück, les banques Deutsche Bank et HSH Nordbank, les énergéticiens E.ON et RWE, le groupe industriel Siemens, la société d'ingénierie et construction industrielle M+W Zander, les entreprises solaires Schott Solar et MAN Solar Millenium, ainsi que trois groupes d'autres nationalités : l'entreprise solaire espagnole Abengoa Solar, l'entreprise de techniques de transmission électrique suisse ABB AG et le groupe agro-alimentaire algérien Cevital. Après les adhésions récentes, l'initiative Desertec compte actuellement 16 entreprises. Grâce à l'adhésion de Nareva Holding, filiale du groupe ONA (Omnium Nord Africain, premier groupe industriel et financier privé marocain) spécialisée dans la production d'énergie (notamment éolienne), l'implication des pays producteurs d'Afrique du nord sera renforcée. Enel Green Power, société nationale italienne d'électricité, peut apporter son expertise en centrales combinées solaires et au gaz avec réservoirs de sel fondu. L'entreprise espagnole RED Electrica est quant à elle spécialisée dans la transmission de l'électricité. L'adhésion de ces deux groupes devrait permettre d'améliorer l'équilibre européen du projet et servir comme pont vers l'Afrique du Nord. Saint-Gobain Solar, actif également dans le photovoltaïque, développe et propose différents composants clés destinés aux CSP, notamment des miroirs, des récepteurs et des éléments de stockage de chaleur. Par ailleurs, Desertec poursuit actuellement des négociations avancées avec une entreprise tunisienne. Enfin, parmi les futurs partenaires associés au projet, l'entreprise américaine First Solar, premier fabricant mondial de cellules photovoltaïques (PV) en 2009, a annoncé le 16 mars 2010 sa participation au projet Desertec pour une période de 3 ans afin d'apporter son expérience des projets PV de grande ampleur. BE
|
|
|
|
|
|
|
|
Intégrer les énergies renouvelables dans un réseau électrique conçu initialement pour le transport d'électricité issu d'une production centralisée est à la fois un challenge technique et un challenge économique. Non seulement parce que les sources d'énergie renouvelables délivrent des puissances plus faibles, mais aussi parce qu'elles sont moins contrôlables et moins prévisibles. Lorsque les conditions d'exposition au soleil et au vent sont les meilleures, les sites de production génèrent un maximum de courant, mais encore faut-il que ce maximum corresponde aux périodes de fortes demandes, ce qui est rarement le cas. Sans compter les phénomènes d'intermittence de production. Par ailleurs, si la génération et la consommation deviennent très dispersées comme elles le seront avec l'utilisation des panneaux solaires particuliers et des véhicules électriques, gérer un tel réseau deviendra alors très différent de s'occuper d'un réseau habituel relié à quelques centrales. Enfin les énergies renouvelables changent les caractéristiques de voltage et de fréquence sur le réseau de distribution et requièrent un ajustement de la régulation des équipements, d'où l'intérêt du réseau intelligent : Il peut fournir un support capable de gérer les problèmes liés aux intermittences et à la déstabilisation physique du réseau, conséquence des différences de tension et de voltage. L'utilisation d'outils de contrôles, d'interruptions et de relais qui peuvent garder les ressources en phase avec la demande sans interruption devient alors un enjeu essentiel pour l'intégration des énergies renouvelables dans le réseau de distribution. Les 2 plus grands producteurs d'électricité, Pacific Gas and Electric Co. (PG&E) et Southern California Edison (SCE), ont chacun planifié l'incorporation d'au moins 500 mégawatts d'électricité issue de panneaux solaires dans les années à venir. Des centaines d'écoles à travers l'état ont amorcé des projets dans le solaire. Les bases militaires se joignent au mouvement et plus de 200 projets de centrales solaires ont été proposées dans les déserts de la région. La California's Public Utilities Commission (CPUC) se prépare donc pour faire face à la forte augmentation d'énergie solaire qui sera installée dans les 2 prochaines années. La commission a approuvé le 13 mars dernier huit bourses totalisant $9,3 millions pour des projets focalisés sur les aspects techniques impliqués dans l'intégration du solaire sur le réseau. La CPUC, investisseur de l'état, prévoit d'atteindre un financement total de 50 millions de dollars jusqu'en 2016 qui selon la commission sera dédié à "des projets de recherche et de démonstration du solaire qui permettront de diminuer de façon significative le coût et d'accélérer l'installation du solaire et des autres technologies de distribution, pouvant être utilisées pour la génération et le stockage du solaire, ou de réduire l'utilisation du gaz naturel". L'objectif étant à terme d'intégrer 1 million de panneaux solaires sur les toits, voulu par Schwarzenegger. L'ensemble du programme sera coordonné par Itron, le leader mondial des compteurs intelligents, sous la surveillance du CPUC. Un grand nombre d'acteurs influents dans les domaines des réseaux intelligents et du solaire est concerné. Parmi eux, sont représentés comme meneur de projets : le Sacramento Municipal Utility District (SMUD), Clean Power Research, le National Renewable Energy Laboratory (NREL), kW Engineering, l'University of California, Irvine (UCI), SunPower Corporation5], l'University of California, San Diego (UCSD). [BE
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Depuis les années 30, les astronomes ont acquis la conviction que seule une faible fraction de la masse contenue dans l'Univers est constituée de matière visible. Le reste serait une matière encore inconnue, la "matière noire", qui n'absorberait, ni n'émettrait de la lumière, mais qui interagirait néanmoins avec la matière classique à travers les interactions gravitationnelles. Ainsi, les galaxies ne seraient que la partie visible d'un iceberg constitué de matière noire. Comment faire pour observer cette matière invisible ? Les astronomes profitent l'effet de lentille gravitationnelle, prédit par la relativité générale d'Einstein. « Durant son voyage jusqu'à nous, la lumière émise par les galaxies distantes voit son trajet légèrement perturbé par l'influence de l'interaction gravitationnelle causée par la matière alentour, y compris bien sûr la matière noire. Cette perturbation déforme l'image des galaxies. Cette déformation peut être mesurée et utilisée pour reconstruire une carte des interactions gravitationnelles subies par la lumière sur son trajet, et donc de la matière située entre nous et la galaxie observée », explique Martin Kilbinger, chercheur à l'Institut d'astrophysique de Paris. Cette étude repose sur les données collectées sur 446 000 galaxies observées dans le champ du relevé COSMOS. Il s'agit de la plus grande campagne d'observation jamais menée par les astronomes à l'aide du télescope Hubble. Ce relevé est constitué de l'assemblage de 575 prises de vues de la même zone du ciel, à l'aide de l'Advanced Camera for Survey (ACS), ce qui représente près de 1000 heures d'observation, soit 600 orbites du télescope. « Le nombre de galaxies observées est considérable, mais la quantité d'information de grande qualité que nous avons pu obtenir sur la partie invisible de l'Univers l'est encore plus », souligne Tim Schrabback qui a piloté ce travail. En complément des données recueillies par Hubble, les chercheurs ont aussi utilisé des données acquises à l'aide de télescopes au sol afin de mesurer finement la distance de 194 000 des galaxies étudiées. Grâce à ces mesures et à de nombreuses innovations sur le traitement des données, les chercheurs ont mesuré la déformation due aux effets de lentilles gravitationnelles. Ils sont parvenus à reconstruire une carte tridimensionnelle de toute la matière (y compris la matière noire) contenue dans la portion du ciel observé par Hubble. « Sur cette carte, nous voyons la distribution de matière évoluer dans le temps », précise William High de l'université d'Harvard. En effet, du fait de la vitesse finie de la lumière, les structures de la distribution de matière les plus lointaines sont aussi les plus anciennes, tandis que celles plus proches de nous correspondent à des structures plus contemporaines. C'est donc en comparant les structures lointaines et proches que les chercheurs ont pu mesurer l'effet de l'expansion sur la structuration de la matière dans l'Univers, et apporter une nouvelle preuve de l'accélération de cette expansion. Cette accélération, observée ces dernières années, est pour la première fois confirmée en utilisant l'effet de lentille gravitationnelle seul. Les chercheurs démontrent ainsi la validité et l'intérêt de cette méthode de reconstruction tomographique. De manière plus générale, ce travail a permis aux chercheurs de tester deux concepts d'Einstein : la relativité générale et la constante cosmologique, que lui-même nommait sa "plus grande bêtise". Les résultats sont en accord avec ces deux concepts. Ils montrent que l'effet de lentille gravitationnelle évolue en fonction de la distance des galaxies exactement comme le prédit la relativité générale, et que la constante cosmologique ou bien sa généralisation souvent nommée "énergie sombre" sont très probablement la cause de l'accélération de l'expansion de l'Univers. « Einstein avait finalement peut-être raison d'introduire cette constante dans ces équations », conclut Tim Schrabback. CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
"Pour la première fois, nous sommes en mesure de montrer que le taux mondial de déforestation a régressé grâce à des efforts concertés", s'est réjoui Eduardo Rojas, sous-directeur général de la FAO (Food and agriculture organization), à l'occasion de la présentation d'un rapport sur les ressources forestières mondiales de 2010. Au cours des dix dernières années, la déforestation a entraîné la perte brute de 13 millions d'hectares de forêts par an, contre 16 millions dans les années 1990. Le rapport précise également que, grâce aux importants programmes de reboisement mis en oeuvre par certains États lors de la dernière décennie, la perte nette annuelle a représenté 5,2 millions d'hectares quand elle atteignait 8,3 millions dans les années 1990. En Asie, la FAO a observé un gain net d'environ 2,2 millions d'hectares par an entre 2000 et 2010. La Chine, l'Inde et le Vietnam "ont augmenté leurs superficies boisées de près de 4 millions d'hectares par an" tandis que d'après l'organisation, la déforestation est en léger recul, les pertes étant de 2,6 millions d'hectares par an contre 2,9 millions entre 1990 et 2000. En Amérique du Nord et centrale, les superficies boisées sont restées stables, et en Europe elles continuent à s'étendre mais à un rythme plus lent. Si la tendance est globalement encourageante, "le taux de déforestation demeure toutefois très élevé dans de nombreux pays", a tenu à souligner Eduardo Rojas avant d'évoquer l'Amérique du Sud et l'Afrique, qui ont enregistré au cours de la dernière décennie, "les plus fortes pertes annuelles nettes de forêts", à savoir 4 et 3,4 millions d'hectares. MS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Découvert à la fin des années 90, le mécanisme qui permet de réduire des gènes au silence est devenu un incontournable outil de laboratoire, notamment pour étudier les fonctions des différents gènes d'un organisme, végétal ou animal. Grâce à l'ARN interféent, c'est le nom de cette molécule d'acide ribonucléique, on projette aussi de s'attaquer à des maladies en bloquant des gènes et en empêchant la fabrication de protéines néfastes. Pour la première fois, une équipe a montré que ce mécanisme fonctionnait chez l'être humain, contre des cellules cancéreuses. Les résultats sont encourageants mais passer à l'application clinique est complexe. Il faut pouvoir acheminer les ARN interférents jusqu'à la cible. L'équipe de Mark Davis (Caltech, Pasadena, États-Unis) a créé des nanoparticules, composées de deux polymères et d'une protéine, qui sont injectées dans le sang des patients et qui véhiculent un ARN interférent spécialement conçu pour s'attaquer à un gène des cellules de mélanome malin. Des biopsies ont été pratiquées sur trois des quinze patients qui participent à cet essai clinique pionnier aux États-Unis. Les analyses des cellules de mélanomes ont révélé que les nanoparticules ont bien atteint les cellules cibles et que plus la dose injectée était élevée, plus la quantité de petits ARNi présents dans le mélanome était importante. Second élément crucial : les ARNi ont fait le travail que l'on attendait d'eux, rapportent Davis et ses collègues dans la revue Nature (AOP). Ces petits ARN double brin s'attaquent à un autre ARN, dit messager, qui transporte les instructions indispensables à la cellule pour fabriquer une protéine à partir du code contenu par l'ADN. Les chercheurs ont justement retrouvé des fragments d'ARN messagers qui étaient coupés à l'endroit visé par l'ARN interférent. Cette première étape clinique, conçue pour étudier la sécurité du traitement, montre pour la première fois que l'utilisation de l'ARNi est possible chez l'humain. Il faut encore établir que ce mode de traitement est efficace pour combattre le cancer et confirmer qu'il n'a pas d'effets secondaires indésirables. Ces travaux ouvrent de nouvelles perspectives de lutte contre des protéines que les médicaments ne parviennent pas à neutraliser, faute d'un récepteur facile à cibler par exemple. En s'attaquant en amont à leur fabrication, l'ARN interférent offre une arme exceptionnelle. NO
|
|
|
|
|
|
|
|
Les scientifiques japonais ont mis au point un moustique anophèle produisant un vaccin naturel contre la malaria. Les glandes salivaires de ce dernier produisent en fait une protéine efficace contre le développement de la malaria dans l'organisme. Lorsque le moustique pique un individu, sa salive est directement injectée dans le sang. Chaque année, la malaria provoque entre un et deux millions de décès dans le monde, surtout chez les enfants africains. Le moustique "prototype" est également porteur d'un vaccin contre la leishmaniose, une maladie potentiellement mortelle transmise par les mouches de sable. L'infection de leishmaniose peut provoquer des plaies douloureuses, une fièvre ainsi qu'une perte de poids. Si elle n'est pas soignée à temps, elle peut en outre détruire le foie et la rate. Les souris mordues par le moustique en question ont produit des anticorps contre la leishmaniose, indiquant l'immunisation. "Suite aux piqures, les réponses immunitaires protectrices sont déclenchées, de la même façon qu'avec une vaccination conventionnelle, mais gratuitement et sans la douleur" a déclaré le Professeur Shigeto Yoshida, de l'université médicale Jichi, au Japon. Ajoutant que "l'exposition continue aux piqures maintiendra un haut niveau d'immunité, d'une façon naturelle et pour toute une vie." Yahoo
|
|
|
|
|
|
|
|
Une équipe scientifique internationale conduite par le "Columbia University Medical Center" (New York) a restauré la vue chez des souris atteintes de rétinite pigmentaire, en remplaçant les cellules rétiniennes malades par des cellules souches embryonnaires. Cette technique pourrait conduire au développement d'un nouveau traitement de la rétinite pigmentaire ou de la dégénérescence maculaire liée à l'age (DMLA). L'étude est publiée par le journal "Transplantation". Les rétinites pigmentaires sont des maladies génétiques de l'oeil causées par des anomalies au niveau des photorécepteurs et des cellules de l'épithélium pigmentaire, responsables de la vision. Elles sont une des causes de la cécité, et affectent entre 3000 à 4000 américains et 1,5 million de personnes dans le monde. Le stade précoce de la maladie se caractérise par une diminution de la vision nocturne et une photophobie. La mort des cellules périphériques de la rétine, au stade avancé de la maladie, conduit à un rétrécissement du champ visuel périphérique qui cause une vision "en tunnel". Les scientifiques du "Columbia University Medical Center" ont utilisé des souris modèles de la rétinite pigmentaire, déficientes en RPE65, une protéine nécessaire au "cycle visuel", processus indispensable pour la vision, qui permet de former le chromophore des pigments visuels des photorécepteurs. Ils ont marqué des cellules souches embryonnaires avec une protéine fluorescente jaune (YFP), et ont induit leur différentiation en cellules pseudo-épithéliales pigmentaires de la rétine. Ces cellules souches reprogrammées ont ensuite été implantées au niveau de l'espace sous-rétinien de souris déficientes en RPE65. Après transplantation, le devenir des cellules marquées a été suivi pendant sept mois grâce à leur fluorescence. Les résultats montrent que 25 % des souris greffées présentent une activité électrique augmentée au niveau de la rétine, et donc que leur vision a été restaurée. Néanmoins, des complications sont apparues chez certaines souris, comme des tumeurs bénignes, et des décollements de rétine. Ces résultats montrent ainsi que les cellules souches embryonnaires peuvent se différencier morphologiquement et fonctionnellement en cellules pseudo épithéliales pigmentaires de la rétine. La stratégie utilisée par le Dr Tsang et son équipe a déjà été éprouvée par des chercheurs de l'Institut d'ophtalmologie de l'"University College London" (UCL) qui ont utilisé le même modèle de souris génétiquement modifiées, mais ont implanté des cellules souches déjà différentiées, à savoir des cellules progénitrices des photorécepteurs. Les résultats positifs ont montré que les photorécepteurs greffés survivaient, développaient des connexions neuronales et amélioraient la fonction visuelle. Plus récemment, une équipe de l'"University of California, Santa Barbara" (UCSB), a montré qu'il était possible de préserver la vision chez des rats atteints de dégénérescence maculaire d'origine génétique, en greffant des cellules souches pluripotentes induites pour recréer des cellules épithéliales pigmentaires rétiniennes. Les cellules souches embryonnaires pourraient permettre le développement de nouvelles approches thérapeutiques contre les maladies affectant spécifiquement l'épithélium pigmentaire rétinien, comme certaines formes de rétinites pigmentaires ou de dégénérescence maculaire. Cependant, les technologies doivent être optimisées pour diminuer l'incidence des complications (tératomes, décollements de rétine). Des approches semblables à celles utilisées par le Dr Tsang, et concernant la dégénérescence maculaire ont démontré leur efficacité dans d'autres modèles de rongeurs. Cependant, ces modèles sont rares et ne sont pas généralisables aux différentes formes de dégénérescence rétinienne humaine, comme par exemple la dégénérescence maculaire liée à l'âge, la rétinite pigmentaire ou la maladie de Stargardt. Dans le cas de la dégénérescence maculaire, certains hôpitaux proposent déjà le remplacement des cellules endommagées de la rétine, mais cette thérapie est limitée par une pénurie de donneurs de cellules de l'épithélium pigmentaire rétinien. En utilisant des cellules souches embryonnaires et en les transformant en cellules épithéliales pigmentaires, l'offre serait quasiment illimitée. BE
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l'université médicale de Nara, menée par le professeur Yoshiyuki NAKAJIMA, est parvenue à produire un organe similaire à un intestin à partir de cellules souches pluripotentes induites (iPS) de souris. Rappelons que les cellules iPS ont été découvertes en 2007 par le professeur Yamanaka de l'université de Kyoto. Elles ont pour caractéristiques d'être produites à partir de cellules somatiques adultes et de présenter des propriétés analogues à celles des cellules souches embryonnaires. Si ces cellules ont déjà permis d'obtenir des feuillets de cellules différenciées de divers types, elles n'avaient pas jusqu'ici montré leur capacité à induire des organes entiers, ces derniers étant des structures tridimensionnelles complexes en général composées de plusieurs sortes de cellules. Les chercheurs ont cultivé des cellules iPS fixées au dos du couvercle d'une boîte de Petri, de façon à ce qu'elles soient suspendues. Au bout de six jours, les chercheurs ont transféré les cellules dans la boîte de Petri et ils ont continué à les cultiver. Au bout de 7 jours, le tissu a commencé à prendre une forme cylindrique. Enfin, deux semaines plus tard, l'ensemble avait pris la forme d'un tube d'un diamètre de 2 mm et d'une longueur de 5 mm. Ce tube était composé de plusieurs couches de cellules correspondant aux couches qui constituent l'intestin : muqueuses épithéliales, muscle, cellules interstitielles de Cajal et neurones entériques. L'organe s'est montré capable du mouvement péristaltique, série de contractions musculaires grâce auxquelles l'intestin fait descendre son contenu. Les chercheurs réfléchissent maintenant aux possibles applications à l'être humain. Leurs résultats ouvrent en particulier la possibilité d'établir des modèles pour les maladies qui touchent l'intestin, telles que la maladie de Crohn (inflammation chronique de l'intestin dont les causes sont pour l'instant mal connues). Au-delà, ils envisagent également la production des intestins destinés à être transplantés, l'utilisation de cellules iPS provenant du patient permettant de réduire les risques de complications ou de rejet de la greffe. BE
|
|
|
|
|
|
|
|
Ellen Heber-Katz et son équipe de biologistes du Wistar Institute de Philadelphie aux Etats-Unis ont annoncé leur découverte étonnante : ils ont identifié sur des souris un gène dont la suppression permet une rapide régénération tissulaire. Certaines espèces telles que les méduses, les éponges, certains tritons et salamandres sont connus pour avoir la faculté de reconstituer un appendice (doigt, membre, queue...) perdu ou endommagé à cause d'une blessure, mais c'est la première fois que ce processus d'autoréparation apparaît chez des mammifères. Les souris étudiées ont "soigné leur blessure en formant un blastème. Cette découverte s'est faite de façon imprévue car les biologistes cherchaient en fait à tester le système immunitaire de ces souris dépourvues du gène p21. Surpris de constater après plusieurs semaines que les petits trous effectués dans les oreilles des souris s'étaient rebouchés sans laisser aucune trace, ils ont mené une seconde expérience qui a montré que l'inaction du gène p21 sur un autre groupe de souris donnait le même résultat. Les chercheurs ont également mis en lumière un accroissement de l'apoptose, le processus de mort cellulaire qui s'active quand l'ADN est endommagé. Pour Helen Heber-Katz, c'est la combinaison de ces processus d'apoptose et de ceux de régénération cellulaire qui explique "pourquoi les cellules se divisent rapidement sans perte de contrôle et donc sans devenir cancéreuses". [GO">...] une structure issue d'une dédifférenciation et d'une croissance cellulaire très rapide, à l'instar de ce qui se passe chez les amphibiens" dont l'un des membres repousse. La perte du gène p21 confèrerait aux cellules des souris "la propriété de se comporter davantage comme des cellules souches embryonnaires que comme des cellules souches adultes" selon l'équipe du Wistar Institute. Habituellement, ce gène a pour rôle d' "empêcher la division cellulaire, en cas d'endommagement de l'ADN, et donc le risque de cancérisation". Cette découverte s'est faite de façon imprévue car les biologistes cherchaient en fait à tester le système immunitaire de ces souris dépourvues du gène p21. Surpris de constater après plusieurs semaines que les petits trous effectués dans les oreilles des souris s'étaient rebouchés sans laisser aucune trace, ils ont mené une seconde expérience qui a montré que l'inaction du gène p21 sur un autre groupe de souris donnait le même résultat. Les chercheurs ont également mis en lumière un accroissement de l'apoptose, le processus de mort cellulaire qui s'active quand l'ADN est endommagé. Pour Helen Heber-Katz, c'est la combinaison de ces processus d'apoptose et de ceux de régénération cellulaire qui explique "pourquoi les cellules se divisent rapidement sans perte de contrôle et donc sans devenir cancéreuses". [GO
|
|
|
|
|
|
|
|
Le méthane étant une molécule très stable, il était généralement admis que sa dégradation sans oxygène ou sulfate était impossible. Pourtant, en 2006, une équipe de chercheurs a découvert une bactérie capable d'oxyder le méthane sans utiliser d'oxygène. A la place, ce microorganisme utilise des nitrites, que l'on trouve notamment dans les sédiments d'eau douce des zones agricoles. La même équipe vient aujourd'hui de montrer que cette bactérie, par un processus enzymatique entièrement nouveau, produit en fait elle-même de l'oxygène à partir des nitrites et l'utilise pour oxyder le méthane. La compréhension de cette nouvelle voie de production d'oxygène a été compliquée par le fait que cette bactérie se développe très lentement, dans un milieu anaérobie, et dans une communauté microbienne complexe. Les chercheurs du Genoscope ont utilisé une approche globale en séquençant l'ensemble des ADN de cette communauté (métagénomique). A partir de ces données de séquences, ils sont parvenus à reconstituer le génome complet de Methylomirabilis oxyfera. Les résultats obtenus ont permis de montrer que les gènes classiquement impliqués dans la réduction des nitrites étaient absents de ce génome. Cela a conduit les chercheurs à suggérer qu'il existe une autre voie de réduction des nitrites chez cette bactérie anaérobie et qu'elle est capable de produire elle-même son oxygène et de l'utiliser pour oxyder le méthane. Cette hypothèse a été démontrée par les scientifiques qui sont parvenus à capturer cet oxygène endogène . Selon les chercheurs, cette nouvelle voie de production d'oxygène pourrait avoir préexisté à l'apparition de la photosynthèse il y a plusieurs milliards d'années, rendant possible l'existence d'un métabolisme aérobie dans une atmosphère dépourvue d'oxygène. CEA
|
|
|
|
|
|
|
|
Issue d'une collaboration franco-anglaise, une analyse de données collectées sur presque 25 ans et portant sur quelque 10 000 fonctionnaires londoniens a fait apparaître un lien entre le niveau socio-économique et le risque de décès. Ce lien serait en grande partie déterminé par des comportements de santé tels que le tabagisme, la consommation d'alcool, l'alimentation et l'activité physique. C'est ce que démontre une étude réalisée par l'équipe Inserm "Centre de recherche en épidémiologie et santé des populations" de Villejuif, et ses collaborateurs anglais du University College London }}, parue dans le numéro du 24 au 31 mars de JAMA. }}La plus forte prévalence des comportements à risque chez les personnes ayant un plus faible niveau socio-économique jouerait donc un rôle dans la corrélation entre faible niveau socio-économique et mauvaise santé. "Des changements importants sont apparus dans les modes de vie de la population : la baisse de la prévalence du tabagisme et l'accroissement considérable de l'obésité depuis les années 1990 en sont deux exemples. Il est possible que les études précédentes avec une seule évaluation des comportements aient fourni une estimation erronée de leur rôle dans la corrélation entre les facteurs socio-économiques et la mortalité", écrivent les auteurs. Silvia Stringhini, doctorante dans l'équipe de Archana Singh-Manoux au Centre de recherche en épidémiologie et santé des populations de Villejuif (unité Inserm 1018), a examiné le rôle des comportements de santé dans la relation entre le niveau socioéconomique et la mortalité. Elle a également cherché à savoir si le rôle des comportements de santé variait selon s'ils étaient évalués uniquement au début du suivi ou tout au long de la période de surveillance. La cohorte prospective Whitehall II, lancée en 1985, comprend un panel de 10 308 fonctionnaires âgés de 35 à 55 ans vivant à Londres. Les analyses ont porté sur 9 590 hommes et femmes dont la mortalité a été suivie jusqu'au 30 avril 2009. C'est la catégorie socioprofessionnelle dans la fonction publique (élevée, intermédiaire et basse) qui a déterminé le niveau socio-économique au début de l'étude. Le tabagisme, la consommation d'alcool, l'alimentation et l'activité physique ont été évalués à 4 reprises pendant la période de surveillance. Globalement, ces travaux montrent que les comportements de santé expliquent 72 % de la relation entre niveau socioéconomique et la mortalité lorsqu'ils sont pris en compte de façon répétée au cours du suivi, contre 42 % lorsqu'ils sont mesurés uniquement au début du suivi comme dans les études précédemment menées. "La différence entre les évaluations effectuées uniquement au début du suivi et les évaluations répétées des comportements de santé est principalement due à un pouvoir explicatif accru de l'alimentation, de l'activité physique et de la consommation d'alcool. Il n'y a pas de changement dans le rôle du tabagisme, le plus fort médiateur dans ces analyses, entre les évaluations effectuées au début du suivi et les évaluations répétées", écrivent les chercheurs. "Cette étude suggère que les comportements de santé sont à l'origine d'une grande partie des inégalités sociales dans la mortalité. Elle montre qu'il est important de tenir compte des évolutions des comportements de santé dans le temps pour évaluer leur rôle dans les inégalités sociales." Inserm
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
La Commission européenne a lancé mercredi 24 mars l'expérimentation de voitures communicantes dans le trafic près d'Amsterdam. La circulation, dans des conditions réelles, de ces voitures vise à démontrer l'intérêt de l'usage des technologies au service de la sécurité routière et des économies d'énergie. Cet essai routier, qui se tient tout autour de l'aéroport d'Amsterdam, utilise plusieurs voitures communicantes capables de communiquer entre elles et avec les infrastructures routières (panneaux de signalisation, feux, centres de gestion) afin de prévenir des accidents de la circulation. Exemple, une voiture communicante accidentée est cachée derrière un virage. Elle peut alors avertir les conducteurs d'autres véhicules communicants qu'il y a eu un accident. Des informations sur le trafic ou sur une limitation de vitesse sont également transmises à une voiture, qui peut la transférer à son tour à d'autres véhicules concernés. "Les systèmes et les services coopératifs comme ceux de nos voitures communicantes vont apporter une réelle valeur ajoutée aux conducteurs européens", déclare Neelie Kroes, commissaire européen chargée de la stratégie numérique. "Ces systèmes contribueront à une mobilité plus sûre et plus intelligente en Europe, débouchant sur une baisse des accidents et de leur gravité ainsi qu'à une réduction de l'empreinte carbone". La Commission européenne indique avoir cofinancé à hauteur de 52 millions d'euros depuis 2006 trois projets en rapport avec les technologies de l'information et des communications pour les transports. Ces projets ont notamment permis de mettre au point des systèmes de localisation de véhicules en mouvement, de communication de véhicule à véhicule (V2V), et de véhicule à infrastructure routière (V2I). Selon Bruxelles, les organismes européens de normalisation vont développer les normes nécessaires pour le V2V et le V2I. Les premières normes sont attendues d'ici la fin 2013, et l'introduction sur le marché de système de mobilité coopérative par les constructeurs et les équipementiers est "envisageable dès 2015". Daimler ou encore Volvo travaillent actuellement sur ce type de technologies communicantes. R1T
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|