|
|
Edito
La généralisation de l'administration électronique passe par le trés haut débit pour tous
20 ans après la naissance du Web, l'administration électronique entre enfin dans une phase décisive grâce à de nombreuses initiatives et expérimentations locales qui se généralisent progressivement à l'ensemble du territoire. L'administration numérique, après une première période visant essentiellement à proposer des informations de manière « verticale » entre à présent dans l'ère interactive. Cette année, les communes qui le souhaitent vont pouvoir proposer à leurs administrés deux nouvelles démarches en ligne : la demande d'inscription sur les listes électorales et le recensement citoyen. Depuis 2009, ces services sont déjà actifs dans plusieurs villes comme Le Havre ou Issy Les Moulineaux et permettent de s'inscrire sur les listes électorales ou de se faire recenser en ligne. Ces nouveaux téléservices et téléprocédures s'inscrivent dans le cadre de "Mon service public.fr", porté par la direction générale de la Modernisation de l'Etat (DGME) du ministère du Budget, des comptes publics et de la réforme de l'Etat. Ce portail, lancé en décembre 2008, deviendra, à terme, le point d'entrée unique pour gérer ses démarches administratives par Internet. Il attribue l'usager un seul identifiant et un mot de passe lui ouvrant ensuite l'ensemble des services et procédures administratives en ligne. L'étape suivante va consister à mettre en place un système de flux informatiques permettant de récupérer, de manière automatisée, les demandes dématérialisées et de les intégrer sans ressaisie dans les base de données correspondantes. Le service concerné, alerté par courrier électronique à chaque nouvelle demande, n'aura plus qu'à se connecter au gestionnaire de suivi pour télécharger les pièces justificatives. Il reste qu'une généralisation de l'administration électronique passe, surtout pour les entreprises, par l'accès généralisé au très haut débit optique et cet objectif est loin d'être atteint puisque la France est lanterne rouge de l'Europe avec à peine 1 % des foyers raccordé à la fibre optique.A cet égard, l'Autorité de la concurrence vient de publier son avis sur la question de la montée en débit afin d'offrir un meilleur confort d'accès à Internet pour les usagers éligibles au haut débit. Ses conclusions sont claires" Le déploiement d'un nouveau réseau en fibre optique jusqu'à l'abonné est préférable, parce que la fibre est technologiquement plus performante et pérenne, et que le déploiement d'un nouveau réseau constitue une opportunité unique pour permettre aux opérateurs alternatifs de s'affranchir du réseau de l'opérateur historique. " l'Autorité de la concurrence ajoute " Il est préférable que les collectivités territoriales privilégient le déploiement de la fibre et réservent les solutions de modernisation du réseau téléphonique à des situations exceptionnelles, en priorisant les zones qui ne sont pas concernées par le dégroupage. " L'accès généralisé de nos concitoyens à l'administration électronique mais également au télétravail et à la télééducation suppose une politique claire et privilégiant sans ambiguïté le développement de la fibre optique (complété par des technologies sans fil à très haut débit dans les zones moins denses) jusqu'à l'habitant et non la modernisation des réseaux en cuivre qui constitue une impasse technologique et reporte aux calendes grecques le très haut débit optique pour tous. Il est à présent temps de faire les choix de l'avenir qui donneront à notre pays les moyens de son indispensable mutation vers l'économie de la connaissance. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Pour assurer une meilleure couverture Internet dans la région Rhône-Alpes et faire émerger une filière numérique locale, le syndicat mixte ADN (pour Ardèche Drôme Numérique) a entreprit le développement d'une infrastructure de communications électroniques haut et très haut débit basée sur la fibre. "Cela permettra à plus de deux cents zones d'activité de bénéficier d'un accès très haut débit", explique à L'Atelier Hervé Rasclard, président du pôle numérique, chargé du développement des TIC sur le territoire. Près de deux mille entreprises sont pour le moment concernées. La mise en place d'un tel réseau de fibre optique permettra aussi de créer des zones dites "premium", où les professionnels pourront bénéficier d'offres FTTB, autorisant des débits de 100M/bps. Lorsque ces infrastructures seront effectives, les conditions de connexion seront les mêmes ici, en Drôme ou en Ardèche, que sur le parvis de la Défense", explique le responsable. "Le numérique est un enjeu de compétitivité du territoire", confirme à L'Atelier Pierre-Eric Saint André, directeur général du pôle Télécoms de la société ETDE , chargée du projet. "Avec le développement de ces zones premium, les PME pourront faire 30 à 50 % d'économies par rapport aux offres actuelles", précise-t-il. En effet, selon lui, les infrastructures mises en place permettront à de nombreux opérateurs de proposer des offres adaptées, sur une partie du réseau. Atelier-20100402]
|
|
|
|
|
|
|
|
2010 sera-t-elle l'année du livre électronique ?. En gestation depuis une vingtaine d'années, ces « e-books » sont enfin arrivés à maturité sur le plan technologique et sur celui du modèle économique. Depuis le 19 octobre dernier, le libraire en ligne Amazon a lancé une version internationale de son lecteur vedette, le Kindle, disponible aux États-Unis depuis fin 2007 pour 250$. Dans moins de 300 g, cet appareil léger et élégant permet d'emporter des centaines d'ouvrages téléchargés sur le site d'Amazon via les réseaux de téléphonie mobile, souvent à des prix inférieurs à ceux des ouvrages papier. L'écran du Kindle, qui met en avant la technologie de l'encre électronique, apporte un confort de lecture très proche de celui offert par le papier. Dans le sillage d'Amazon, d'autres constructeurs, comme Sony, proposent des lecteurs du même genre, parfois avec un écran tactile, mais toujours en noir et blanc. L'arrivée de la couleur dans le domaine du livre électronique va véritablement se faire dans un mois grâce à Apple et sa tablette tactile iPad. La firme de Steve Jobs entent bien réitérer, avec son nouveau magasin iBooks dédié à sa tablette, le coup de génie réalisé au début des années 2000 dans la musique numérique avec le couple iPod/iTunes. Les éditeurs américains, de livres mais aussi de magazines, ne s'y sont pas trompés, qui ont déjà signé des accords de partenariat avec Apple. En France, où il y a la loi sur le prix unique du livre, Apple ne lancera pas dans l'immédiat son magasin iBooks. Mais la révolution du livre est en marche. Le matériel est là, les circuits commerciaux aussi et les contenus numérisés se multiplient. Gallica, le site internet de la bibliothèque nationale de France (BNF) a franchi le cap du millionième document le 10 février. Le géant Google, qui prend quelques libertés avec le droit d'auteur ce qui le conduit parfois en justice, en est lui à... 12 millions d'ouvrages numérisés.Enfin, dernier élément clé de cet écosystème : si les lecteurs sont toujours très attachés au papier, ils sont désormais prêts à lire sur écran selon une enquête OpinionWay. LD
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Une armature motorisée amplifiant la force musculaire relève plutôt de l'attirail du super-héros que de celui de l'agriculteur. Pourtant une telle panoplie futuriste sera bientôt vendue aux fermiers japonais pour alléger les tâches que l'âge leur rend pénibles.La crise démographique qui touche le Japon n'épargne pas les agriculteurs, dont environ les deux tiers ont plus de 65 ans. Réticents à faire appel à la main-d'oeuvre étrangère, les Japonais imaginent des technologies de pointe pour permettre aux paysans âgés de continuer d'oeuvrer sans s'éreinter.C'est dans cette optique que le professeur Shigeki Toyama et son équipe de recherche ont conçu leur exosquelette motorisé ("power assist suit") à l'Université d'agriculture et de technologie de Tokyo. Après quinze années de recherche et développement, le kit du super-fermier est sur le point de faire son entrée sur le marché japonais. M. Toyama créera son entreprise d'ici à la fin de l'année pour le produire en série et le vendre à partir de 2012.Cette ossature externe dispose de huit micromoteurs, placés au niveau des articulations, qui lui permettent d'accompagner les mouvements du corps détectés par des capteurs.Elle peut également être activée par commande vocale. Cette structure confère à son utilisateur une agilité et un confort inégalés pour déterrer des gros radis, cueillir le raisin ou les abricots. Oubliés les rhumatismes, problèmes de dos, crampes et autres douleurs que les agriculteurs connaissent si bien."Si le fermier se penche pour déraciner un radis Japonais, son dos sera maintenu droit et il suffira de donner une brève instruction vocale pour que les tiges métalliques articulées au niveau des jambes se raidissent, lui donnant l'impulsion nécessaire pour arracher le légume sans effort", explique Gohei Yamamoto, un des étudiants qui travaille sur le projet. Deux modèles ont été développés pour différentes activités. Le plus lourd --31 kilogrammes-- permet de ramasser des légumes au sol ainsi que de transporter des charges lourdes.L'autre, plus récent, ne pèse que 23 kilogrammes, une charge qui pourra être un peu allégée d'ici à sa commercialisation. Il soutient toute la colonne vertébrale et les bras pour cueillir plus facilement les fruits dans les arbres. Aux dires de leurs concepteurs, ces combinaisons diminuent l'effort physique de 62% en moyenne. L'activité musculaire enregistrée baisse de moitié lorsque le sujet fléchit les genoux. Il peut ensuite se maintenir accroupi sans aucune peine."Pour développer ce dernier modèle, nous avons fait une étude auprès de 102 personnes, leur demandant quelles parties de leur corps souffraient le plus de la cueillette du raisin. Il est apparu que les bras, le cou et les reins étaient les plus touchés", explique Gohei Yamamoto. Cet appareillage sera dans un premier temps proposé à 1 million de yens (environ 8.000 euros), mais son prix devrait chuter de moitié lorsqu'il sera produit en série.La même équipe de recherche travaillera bientôt à la conception de lunettes multimédia, sur lesquelles s'afficheront en temps réel des informations utiles pour l'agriculteur en fonction de la tâche qu'il est en train d'effectuer. On peut imaginer y voir le degré de maturation des fruits regardés ou un suivi du rythme cardiaque de l'utilisateur."Les lunettes vous diront par exemple de faire une pause si vous avez trop travaillé", sourit M. Toyama. AFP
|
|
|
|
|
|
|
|
La NASA s'apprête à lancer un robot développé conjointement avec GM vers la Station spatiale internationale. Des technologies pour faire progresser la sécurité des véhicules et les systèmes industriels. La NASA s'apprête à lancer le premier robot à forme humaine dans l'espace, plus tard cette année, pour en faire un résident permanent de la Station spatiale internationale (ISS). Robonaut 2, ou R2, est le fruit d'une entente de coopération entre la NASA et General Motors visant à mettre au point un assistant robot qui travaillera côte à côte avec les humains, qu'il s'agisse d'astronautes en orbite ou d'ouvriers aux usines de GM sur terre. Composé d'une tête et d'un torse pourvu de deux bras et deux mains, ce robot de 140 kg sera lancé vers l'ISS dans la navette Discovery, à l'occasion de la mission STS-133 prévue pour septembre. Une fois le robot à bord, les ingénieurs observeront son fonctionnement en état d'apesanteur. R2 se joint à l'autre robot de la station, le Dextre. Fabriqué par l'Agence spatiale canadienne, celui-ci se compose de deux longs bras servant à exécuter des tâches qui exigeraient autrement la sortie d'astronautes dans l'espace. Si Dextre est situé à l'extérieur de la station, R2 restera confiné au laboratoire Destiny. Toutefois, des améliorations à venir pourraient lui permettre de se déplacer plus librement dans l'habitacle de l'ISS, voire même un jour à l'extérieur du complexe. « L'utilisation de R2 dans la station spatiale marquent le premier pas d'une ère nouvelle, qui verra s'accélérer la cadence de l'exploration de l'espace grâce à la coopération humain-robot, affirme John Olson, directeur du bureau d'intégration des systèmes d'exploration de la NASA. Ce partenariat entre l'homme et la machine est la clé qui nous ouvrira la porte du système solaire en nous permettant d'aller plus loin et de réaliser plus que nous ne pouvons l'imaginer aujourd'hui. » Cet humanoïde rappelle l'être humain non seulement par son apparence, mais aussi par sa façon de travailler. Avec ses bras et ses mains, R2 est capable d'utiliser les mêmes outils que l'équipage de la station. Dans l'avenir, les robots humanoïdes pourraient trouver comme principale utilité d'assister ou de remplacer les astronautes lors des sorties ou des tâches trop difficiles ou trop dangereuses. Pour l'instant, R2 demeures un prototype dépourvu de la protection adéquate pour sortir de la station et s'exposer aux températures extrêmes du vide sidéral. L'intérieur de la station offrira un environnement intermédiaire significatif pour le mettre à l'épreuve. R2 pourra y évoluer en état d'apesanteur, soumis au rayonnement et aux interférences électromagnétiques qui caractérisent ce milieu. Ces activités intérieures permettront de recueillir des données sur l'efficacité du robot dans le travail côte à côte avec les astronautes. À mesure que progresseront les activités de développement sur terre, l'équipage de la station pourrait se voir expédier du matériel et du logiciel pour mettre à jour R2 afin de lui permettre d'accomplir de nouvelles tâches. R2 est actuellement soumis à un programme d'essai approfondi en préparation de son premier vol. Or, les essais de résistance aux vibrations, au vide et au rayonnement ainsi que les autres protocoles auxquels R2 est soumis seront également profitables à l'équipe GM. En effet, le constructeur automobile prévoit d'utiliser les technologies du R2 pour faire progresser le système de sécurité des véhicules ainsi que le système de production employés dans ses usines. « Les paramètres d'essai extrêmes du R2 en vue de son séjour à bord de la Station spatiale internationale se rapprochent de ceux que nous utilisons dans le programme de validation de nos véhicules et de nos pièces sur le chemin de la production en série, explique Alan Taub, vice-président, recherche et développement mondial de GM. Le travail réalisé par les ingénieurs de GM et de la NASA nous aidera également à valider des technologies de production favorables pour la santé et la sécurité des membres de l'équipe GM travaillant dans nos usines partout dans le monde. » GAW
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La ville rose vient de débuter l'expérimentation d'un trottoir permettant de produire de l'électricité grâce aux passants qui l'empruntent. Ce test, qui devrait durer deux semaines, ne consiste pour l'instant qu'en quelques dalles qui, grâce aux micro-capteurs dont elles sont équipées, recueillent l'énergie cinétique produite par les passants pour la transformer en électricité. Ce trottoir producteur d'énergie a été installé sous un porche du centre-ville de Toulouse, à quelques pas du Capitole.Dès qu'un marcheur foule les dalles, ce sont environ 30 watts qui sont produits en continu et sont stockés dans des batteries. Une puissance qui permet de faire fonctionner l'éclairage qui surplombe le trottoir, à savoir une rampe de leds et un candélabre à diodes."Il s'agit pour l'instant d'une expérimentation mais ce système unique au monde nous permet d'entrevoir toute une série d'applications pour la ville" se félicite Alexandre Marcel, adjoint au maire de Toulouse chargé du développement durable, interrogé par Reuters. C'est la société néerlandaise Jaap Van der Braak qui a développé ce trottoir permettant aux piétons de produire de l'électricité. Une technique qui aura nécessité huit mois de travail pour être au point. Alors que cinq mètres de dalles pourraient alimenter à hauteur de 100 watts un lampadaire, la ville de Toulouse estime qu'elle pourrait, d'ici 2020, réduire de moitié la consommation d'énergie de son éclairage public. MS
|
|
|
|
|
|
|
|
La Chine a en effet porté sa capacité de production d'énergie éolienne à 25,8 gigawatts, contre 25,77 pour l'Allemagne. Le pays le plus émetteur de CO2 de la planète reste encore loin derrière les USA, qui conservent leur place de leader avec une capacité de 35 gigawatts, soit 36% de la production d'énergie éolienne mondiale. Cependant, toujours d'après le GWEC, la Chine où l'éolien ne représente actuellement que 1% de la consommation totale d'électricité pourrait rapidement dépasser les États-Unis. Le pays investit massivement dans les énergies renouvelables et s'est fixé pour objectif de parvenir à une production d'énergie éolienne de 150 gigawatts d'ici 2020. Au niveau mondial, l'éolien bénéficiait fin 2009 d'une capacité de 158,5 gigawatts. Une capacité qui, d'ici à 2014, devrait passer à 409 gigawatts. Le GWEC prévoit une capacité mondiale en augmentation de 160% au cours des cinq prochaines années. Face à la crise, l'énergie éolienne reste en effet très prisée à travers le monde. "Économique, propre, fiable et rapide à installer, elle demeure une solution intéressante pour sécuriser l'approvisionnement, réduire les émissions de CO2, et créer des milliers d'emplois. (...) Toutes ces qualités sont d'une importance capitale, d'autant plus en période d'incertitude économique" souligne Steve Sawyer, secrétaire général du GWEC. MS
|
|
|
|
|
|
|
|
Le groupe DCNS vient d'annoncer le lancement, il y a quelques jours, d'une étude de faisabilité pour l'installation d'une centrale pilote d'hydroliennes au Raz Blanchard, au large de la presqu'île du Cotentin dans la Manche. Un projet pour lequel il consulte actuellement plusieurs fabricants d'hydroliennes.DCNS, spécialisé dans les technologies militaires navales, a annoncé en 2008 sa diversification dans le secteur des énergies de la mer. Aujourd'hui, il confirme cette orientation qui le conduit à devenir « le seul industriel en Europe et dans le monde, à notre connaissance, à être présent sur les quatre systèmes principaux de récupération de l'énergie des mers : éolien offshore, énergie des vagues, énergie des courants et énergie thermique des mers », signale Bertrand Planchais, directeur général délégué du groupe. La récente annonce concerne donc l'énergie des courants, avec une centrale projetée d'une puissance installée de 20 MW, soit une vingtaine de machines. Sur cette forme d'énergie, déjà bien explorée par de nombreuses équipes de recherche, DCNS a choisi pour l'instant de se contenter du rôle de maître d'oeuvre. Il souhaite s'allier à un fabricant d'hydroliennes. « Nous avons pré-identifié deux ou trois technologies », précise Frédéric Le Lidec, directeur de l'Incubateur créé récemment par le groupe à Brest pour explorer ces technologies. Le choix final dépendra de plusieurs facteurs : « il faudra que le fournisseur puisse tenir les délais prévus, avec l'installation de la centrale prévue en 2013 ; que la technologie ait déjà été testée, qu'elle garantisse un minimum de productible et qu'elle offre de bonnes conditions de maintenance », poursuit-il. L'étude de faisabilité technique est destinée à fournir aux éventuels investisseurs des éléments de réponse sur les risques. Dans cette optique de maîtrise d'oeuvre, pour développer ce type de projets le groupe souhaite aussi s'allier à des opérateurs électriques qui, de partenaires, deviendraient ensuite gestionnaires des parcs. Concernant d'une manière plus générale le développement des énergies de la mer, Bertrand Planchais appelle la France à prendre « un virage similaire à celui de l'Allemagne il y a dix ans dans le secteur de l'éolien. Cela pourrait permettre dans l'Hexagone, d'ici dix ans, de générer quatre à six milliards d'euros de chiffres d'affaire cumulé dans le secteur, et 30 à 50 000 emplois ». D'après lui, les enjeux pour amorcer ce virage sont la question du tarif de rachat des énergies marines, mais aussi d'une éventuelle politique de soutien étatique au raccordement aux réseaux, et d'une simplification des procédures d'autorisation. PE
|
|
|
|
|
|
|
|
L'hydrogène est l'énergie de l'après-pétrole, d'autant qu'il est puissant : un kilo d'hydrogène libère trois fois plus d'énergie qu'un kilo d'essence. Problème, jusqu'à présent l'hydrogène est coûteux à fabriquer, et dangereux à stocker. Grâce à sa technologie à base d'hydrures de magnésium, la start-up McPHY Energy semble en passe de résoudre le problème. Elle a signé un contrat de recherche partenariale avec l'Institut CEA-Liten (Laboratoire d'Innovation pour les Technologies des Energies Nouvelles et les nanomatériaux), l'un des plus importants centres européens de recherche sur les nouvelles technologies de l'énergie. Objectif du contrat : fabriquer deux réservoirs d'essais complets d'hydrures de magnésium afin de les tester à l'échelle industrielle. Le premier réservoir, d'une capacité de 1kg d'hydrogène, a été livré le 29 mars 2010 au CEA-Liten. Dans le cadre de ce même accord, un second réservoir de grande capacité (15 kg d'hydrogène) sera mis en service, au cours du second semestre 2010. Ces réservoirs permettent de stocker, à la pression atmosphérique et sous forme de poudre, autant d'hydrogène que dans le cadre d'une compression à 500 bars dans le même volume. Au cours de ces essais, les réservoirs seront également couplés à un électrolyseur et une pile à combustible, simulant ainsi une utilisation de stockage d'énergie renouvelable. « A plus de 150 dollars le baril, cela devient compétitif de faire de l'hydrogène par électrolyse à base d'éolien ou de solaire. La question va se poser assez vite », indiquait à l'Usine Nouvelle.com début 2009 Daniel Fruchart, chercheur à l'origine de la trouvaille et membre de l'institut Néel à Grenoble (CNRS). « Quand l'éolienne ou le panneau photovoltaïque produisent plus d'électricité que de besoin, il est facile d'utiliser ce courant pour fabriquer de l'hydrogène par électrolyse, et de stocker cet hydrogène pour l'utiliser plus tard » expliquait le chercheur. A l'échelle d'une maison, il faudrait 2 kilos d'hydrogène en moyenne pour nourrir les besoins d'un foyer en électricité, selon qu'il possède une voiture électrique ou pas. Soit une « cave à vin » d'hydrure de moins d'un mètre cube. _ Areva a investi dans l'entreprise et gardes sur elle un oeil attentif. Si les réservoirs d'hydrogène s'avèrent concluants, à grande échelle, des systèmes couplés aux centrales nucléaires pourraient être imaginés, qui permettraient de différer la production d'énergie en heure creuse pour la réinjecter dans le réseau au moment de la pointe. UN
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le Lancet a publié 5 études démontrant pour la première fois les co-bénéfices sur la santé de la réduction des gaz à effet de serre(GES). Par exemple, une des études a démontré qu'un mode de transport urbain plus durable (axé sur les transports publics ou actifs) pourrait réduire de 10 à 25% les maladies cardiovasculaires à la fois dans les pays développés et en développement. Ces études suggéraient que les bénéfices sur la santé publique seraient non seulement immédiats et locaux, mais que leur valeur économique pourrait même compenser les coûts engendrés par les politiques de réduction des GES. A l'époque de cette publication, scientifiques, responsables de santé publique et représentants d'ONG (OMS et ONU) réunis à Washington avaient salué ces résultats prometteurs, susceptibles de faciliter l'adhésion des politiques et du grand public à l'action climatique. Depuis lors, ces résultats sont portés à la connaissance des décideurs politiques et du public avec des messages adaptés à chacune des cibles : les décideurs, le grand public et les communautés. En Février 2010, à l'occasion d'un briefing à la Chambre des Représentants organisé par l'American Meteorological Society (AMS), le message de Jonathan Patz, professeur et directeur du "Global Environmental Health" à l'Université de Wisconsin Madison était clair : à l'heure où l'on ne parle que du coût de la réduction des émissions de GES, cette dernière présente la double opportunité (=cobénéfices) d'améliorer la santé publique et de faire économiser des milliards de dollars en sauvant des centaines de vies, en évitant des milliers d'hospitalisations et en réduisant l'incidence des maladies cardio-respiratoires, de l'obésité, du diabète et de certains cancers. Au niveau mondial, Jonathan Patz a cité l'étude toute récente de Nemet et al publiée en janvier 2010. Cette étude démontre que les économies sur les dépenses de santé sont de 2 à 196 dollars par tonne de CO2 non émis selon les pays, avec une moyenne de 50 dollars. Ces valeurs doivent être comparées au coût des mesures de réduction des GES, généralement estimé autour de 30 dollars par tonne de CO2. Dans une déclaration à "environmentalresearch web", Nemet affirme que "ces cobénéfices sur la santé sont en mesure de compenser les coûts à court terme des politiques climatiques... et que ce serait une grossière erreur de les ignorer".En conclusion, l'intégration de ces cobénéfices dans le calcul du coût sociétal des politiques de réduction des GES modifie totalement leur rapport coût-bénéfice et les métamorphose en stratégies "win-win" à coût zéro ! BE
|
|
|
|
|
|
|
|
D'après un rapport de l'institut indépendant European climate foundation (ECF), réduire de 80% les émissions de gaz à effet de serre européennes en 2050 par rapport à 1990, est techniquement possible. Réalisé en partenariat avec l'Imperial College de Londres et les cabinets de consultants McKinsey, KEMA et Oxford Economics, ce rapport affirme en effet qu'une telle réduction des émissions de GES, préconisée par le Groupe d'experts intergouvernemental sur l'évolution du climat (Giec) dans les pays développés, serait possible grâce à un développement massif des énergies renouvelables. ECF assure que pour parvenir à cet objectif, il faudrait installer 5000 km² de panneaux solaires, soit 0,1% de la superficie de l'Union européenne. Un parc de 100.000 éoliennes, allié à la construction de 100 nouveaux réacteurs nucléaires mais aussi à des améliorations de l'efficacité énergétique des bâtiments, de l'industrie et de l'agriculture, et enfin au développement d'un nouveau réseau de transport d'énergie : tels sont les efforts qui permettront d'atteindre le très ambitieux objectif recommandé par le Giec. Objectif qui coûterait à l'UE quelque 52 milliards d'euros par an jusqu'en 2050. Rapport ECF
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Jusqu'ici, les biologistes pensaient que seuls quelques virus et microorganismes unicellulaires étaient capables de vivre sans oxygène. Mais trois nouvelles espèces d'animaux pluricellulaires découvertes dans des sédiments méditerranéens remettent cela en cause.Ces animaux ne mesurent pas plus d'un millimètre de long, mais leur découverte est d'une importance capitale : pour la première fois, des êtres vivants pluricellulaires qui ont toujours vécu sans oxygène ont pu être observés. Les trois nouvelles espèces, qui n'ont pas encore été nommées, appartiennent à la famille des loricifères, des animaux microscopiques qui peuplent les sédiments marins du monde entier. «Cette découverte montre que la vie peut s'adapter à un milieu sans oxygène» s'enthousiasme Roberto Danovaro, chercheur à l'Université polytechnique des Marches, à Ancône en Italie, et coauteur de ces travaux publiés le 6 avril 2010 dans la revue BMC Biology. En effet, les spécimens ont été découverts à plus de 3.000 mètres de profondeur, dans des sédiments au sud de la Grèce. Un milieu totalement dépourvu d'oxygène, ce qui tend à montrer que ces loricifères sont capables de se reproduire et de passer leur vie entière sans l'apport d'un élément chimique considéré comme indispensable à la vie.Comment ces espèces font-elles pour résister à des conditions si extrêmes? Ces organismes ne sont pas équipés de mitochondrie, un organite qui utilise l'oxygène pour fournir de l'énergie à sa cellule. A la place, ces loricifères possèdent des organites semblables à ceux de certains organismes unicellulaires qui produisent de l'énergie sans oxygène.Cette découverte ouvre de nouvelles perspectives pour l'étude des organismes extrêmophiles. En effet, découvrir des organismes capables de survivre sans mitochondrie et sans oxygène offre aux biologistes l'espoir de trouver d'autres êtres vivants dans des niches écologiques dépourvues de cet élément. S1A
|
|
|
|
|
|
|
|
Une équipe de chirurgiens du Centre hospitalier de l'Université de Montréal (CHUM) a injecté des cellules souches directement dans le coeur de patients afin d'améliorer la guérison et la fonction de l'organe.Cette intervention, encore au stade expérimental, est réalisée au CHUM lors de chirurgies de pontages coronariens.La procédure est tout indiquée pour des personnes qui souffrent d'une défaillance chronique du muscle cardiaque causée par la maladie coronarienne. L'apport sanguin au coeur est ainsi diminué, ce qui cause une défaillance du coeur. Un premier malade a reçu il y a quelques semaines des cellules souches immatures isolées de sa moelle osseuse et ensuite enrichies pour qu'elles puissent se développer en cellules cardiaques et se renouveler indéfiniment. L'équipe médicale a déjà observé une amélioration dans la capacité de contraction de son coeur, ce qui améliore la fonction de pompe pour éjecter le sang de l'organe.Ce nouveau traitement est beaucoup moins invasif qu'une transplantation cardiaque, qui est toujours le seul traitement disponible pour aider les patients en phase avancée d'une défaillance cardiaque.Environ 20 personnes recevront ce traitement expérimental dans les prochains mois. L'Hôpital général de l'Université de Toronto procédera à l'expérience dans les prochaines semaines. RC
|
|
|
|
|
|
|
|
Une approche thérapeutique mise au point par des chercheurs québécois permet de réparer le gène défectueux qui cause la dystrophie musculaire de Duchenne.Le Pr Jacques P. Tremblay et ses collègues de l'Université Laval ont créé des enzymes (appelées méganucléases) capables de reconnaître et d'extraire les régions mutées du génome des personnes atteintes de dystrophie de Duchenne. Cette maladie héréditaire, qui touche un garçon sur 3500, cause une dégénérescence progressive des muscles, qui s'amorce dès la petite enfance et qui entraîne souvent la mort avant l'âge de 25 ans.La maladie est déclenchée par des mutations qui affectent une protéine appelée dystrophine. Ces mutations altèrent la séquence normale du gène de cette protéine et arrêtent la synthèse. Lors d'essais sur les souris, les chercheurs ont montré que le recours aux nouvelles enzymes mène à une restauration de la séquence normale du gène de la dystrophine et à son expression dans les cellules musculaires.Si les résultats de ces travaux sont encourageants, la nouvelle approche doit encore être peaufinée avant d'être envisagée chez l'humain. Le Pr Tremblay explique qu'il faut, dans un premier temps, montrer chez des rongeurs qu'il est possible d'introduire directement les enzymes dans les cellules musculaires et s'assurer de la synthèse de dystrophine. Cette étape peut prendre quelques années, avant que des essais sur des humains puissent ensuite être menés. RC
|
|
|
|
|
|
|
|
L'International Cancer Genome Consortium (ICGC) vient d'annoncer un projet pharaonique : séquencer 25 000 génomes sélectionnés parmi une cinquantaine de cancers différents. Cet effort international a été présenté par la prestigieuse revue Nature. Une entreprise dont les premiers résultats donnent déjà le vertige aux scientifiques qui cherchent à trouver du sens dans cet épais brouillard de données. Il faut dire que le terrain de prospection est vaste. Le cancer est en effet le fruit de complexes mutations génétiques qui perturbent les fonctions normales des cellules et mènent à leur croissance incontrôlable. Dresser systématiquement le tableau des modifications qui se produisent dans chaque cancer est long et fastidieux. L'exercice n'en demeure pas moins fondamental pour qui cherche de nouvelles stratégies en matière de prévention, de diagnostic et de traitement. En deux ans, le consortium a déjà eu le temps d'identifier des centaines d'anomalies comme des séquences inversées ou d'infimes mutations qui constituent autant de pistes à explorer. Diffusées hier pour la première fois, ces données ont été mises gratuitement à la disposition des chercheurs du monde entier dans l'espoir les aider à décrypter les clés qui leur permettront de mieux comprendre ce mal multiforme. t ce n'est là qu'un début, raconte l'éthicienne montréalaise Bartha Maria Knoppers, qui participe à l'aventure. «Cette semaine seulement, deux-trois nouveaux projets se sont ajoutés en Europe, raconte la directrice du Centre de génomique et politiques du Centre d'innovation Génome Québec-Université McGill. Il s'agit d'une formule qui illustre à merveille la façon moderne de faire de la science en mettant en commun les efforts des meilleurs chercheurs au monde plutôt que de les mettre en compétition.» Cette émulation rapporte déjà gros, mais promet encore plus au fur et à mesure que la banque se construira et s'étoffera. Au risque d'être même enseveli sous les données, prévient le chercheur américain à Johns Hopkins, Bert Vogelstein, dans Nature. «La difficulté sera de figurer comment utiliser ces informations pour aider les gens et non pas se contenter de cataloguer pleins de mutations.»Formé d'une douzaine de pays, dont le Canada, l'Australie, la Chine, l'Espagne, l'Inde et les États-Unis, le consortium espère à terme faciliter la mise au point de traitements sur mesure pour chaque patient. Les dirigeants de l'ICGC feront une présentation sur l'avancement de leurs projets au congrès annuel de l'American Association for Cancer Research qui se tiendra à Washington la semaine prochaine.En 2007, plus de 7,5 millions de personnes sont mortes du cancer et plus de 12 millions de nouveaux cas ont été diagnostiqués dans le monde. Si les choses se poursuivent à ce rythme, ce sont 17,5 millions de personnes qui mourront du cancer en 2050 et 27 millions de nouveaux cas qui seront diagnostiqués. RI
|
|
|
|
|
|
|
|
Quand ils sont diagnostiqués trop tardivement, les cancers sont difficiles, voire impossibles à soigner. Disposer d'un test précoce, fiable et peu invasif a longtemps été un idéal hors de portée des cancérologues. Genclis, une petite société nancéienne, pourrait changer la donne. Elle a, en effet, mis au point une plate-forme technologique qui permet de détecter dans une simple prise de sang des fragments de protéines « aberrants », résultant d'une augmentation des erreurs de transcription des gènes (ADN) en ARN, un phénomène caractéristique des cellules cancéreuses. Une première application au cancer du sein a montré qu'il était possible de détecter la maladie dans 95 % des cas. Deux collections d'échantillons issus de plus de 1.000 patientes asymptomatiques ont permis de valider ce marqueur. Il reste à standardiser les conditions de réalisation du test, avant de le déployer à partir de septembre dans les grands centres de recherche sur le cancer. « Il ne s'agit pas de réaliser un dépistage de masse, explique Bernard Bihain, président de Genclis, mais de réserver l'usage de ce test à une population de patientes bien définie : celles qui ont un historique familial lourd ou qui présentent des lésions à la palpation avant cinquante ans. » Deuxième cible de la société lorraine : le cancer du poumon. La qualité des collections de prélèvements existantes n'étant pas suffisante, la société s'applique à en constituer une pour valider son marqueur dans le cancer du poumon. Il devrait être disponible fin 2010. La même approche devrait ensuite être appliquée au cancer du côlon, puis à celui de la prostate. « Notre rapidité dépendra essentiellement de notre capacité à financer la recherche », explique Bernard Bihain. Depuis sa création, en 2004, Genclis, qui emploie aujourd'hui 35 personnes, a réussi à mobiliser 8,5 millions d'euros auprès de quelques investisseurs, d'Oséo et des collectivités publiques (région, communauté d'agglomération...). Elle prépare actuellement un nouveau tour de table. LE
|
|
|
|
|
|
|
|
Les chercheurs travaillent à la mise au point d'un test sur la base de ces travaux, dans l'espoir de dépister ce cancer à un stade plus précoce, où il est davantage traitable. Le cancer du poumon est la première cause de décès par cancer et le tabagisme en est de loin le facteur principal. Entre 10% et 20% des fumeurs développent la maladie, souligne le Dr. Avrum Spira, de l'université de Boston, qui a dirigé l'étude. Le risque dépend en partie de plusieurs facteurs -la quantité de tabac fumée, la durée de cette consommation et le temps écoulé depuis le moment où l'on a arrêté-, mais il n'y a pas de moyen de prédire qui échappera ou non à la maladie. Il n'existe pas non plus de méthode fiable pour détecter les tumeurs à un stade précoce. Et la plupart des malades sont diagnostiqués trop tard pour que les traitements actuels leur soient d'un grand secours. "Même pour les personnes qui ont arrêté de fumer, il y a un risque important de cancer, et il serait bien d'identifier les patients qui présentent réellement un risque", souligne le Dr. Neal Ready, spécialiste du cancer du poumon, qui n'a pas participé à l'étude. "Disposer d'une sorte de test moléculaire qui aiderait à identifier ces patients serait très utile", car ils pourraient faire l'objet d'une surveillance étroite via des scanners dont l'usage n'est pas pratique pour tout le monde, ajoute le scientifique de l'université Duke. Plutôt que se concentrer sur le poumon, l'équipe du Dr. Spira a choisi une autre approche. Fumer expose l'ensemble des voies respiratoires à des toxines. Les chercheurs ont donc cherché les signes les plus précoces d'un cancer imminent en amont, dans la manière dont différents gènes sont activés et désactivés dans la trachée alors que l'organisme tente de se défendre et que ses défenses s'affaiblissent avec le temps. Chaque année aux Etats-Unis, au moins 100.000 fumeurs ou anciens fumeurs subissent une bronchoscopie -l'insertion d'un tube (bronchoscope) dans la gorge pour chercher des signes de cancer- après la détection d'un signe suspect lors d'une radiographie ou d'un autre examen, note le Dr. Spira. Les bronchoscopies peuvent être utilisées pour examiner les poumons, mais le Dr. Spira s'est intéressé aux cellules tapissant la trachée collectées durant la procédure. Il a ainsi découvert une signature génomique -un type d'activité génétique- distinguant certains fumeurs ou ex-fumeurs atteints d'un cancer du poumon de ceux qui n'avaient pas la maladie. Avec le Dr. Andrea Bild, de l'université de l'Utah, le Dr. Spira a analysé les cellules provenant de 129 sujets et a découvert que les gènes impliqués faisaient partie de "la voie PI3K" qui joue un rôle dans le cancer. Lorsque les gènes liés au PI3K sont trop actifs, une croissance cellulaire excessive peut se produire. Le Dr. Spira a rapporté avoir découvert l'activation du PI3K chez certains fumeurs ou anciens fumeurs présentant des lésions précancéreuses, mais pas chez ceux souffrant d'autres maladies pulmonaires.L'étude ne signifie pas que les personnes sans ce marqueur génétique peuvent continuer à fumer sans risque. D'autres mécanismes pourraient permettre au cancer du poumon de se développer, et il convient de rappeler que le tabagisme est aussi à l'origine de crises cardiaques, d'autres maladies pulmonaires et d'autres cancers. Certains médicaments expérimentaux ont été conçus pour lutter contre l'activation du PI3K. Une molécule a déjà été testée chez neuf fumeurs avec des lésions précancéreuses, dont six ont vu ces lésions s'améliorer. L'équipe du Dr. Spira a examiné les cellules des voies respiratoires qui avaient été prélevées sur ces sujets et a découvert une chute de l'activité du PI3K chez ceux qui avaient réagi à la molécule. C'est là un signe encourageant pour les efforts visant à tenter de mettre au point des médicaments préventifs contre le cancer. Yahoo
|
|
|
|
|
|
|
|
Une équipe de chercheurs de la faculté de médecine de l'université de la ville d'Osaka a établi un nouveau modèle de souris génétiquement modifiées pour l'étude de la maladie d'Alzheimer. Ce modèle a permis d'étudier spécifiquement le rôle joué par certaines molécules, les oligomères béta-amyloïdes, dans le développement de la maladie.Rappelons que la maladie d'Alzheimer est une affection neurodégénérative entraînant la perte progressive et irréversible des fonctions cognitives (par exemple la mémoire, l'expression...) et dont le risque de survenue augmente avec l'âge. Les causes de cette pathologie sont encore mal connues. Le cerveau des patients présente deux types d'anomalies caractéristiques : l'agrégation excessive sous forme de plaques d'un peptide, la bêta-amyloïde 42 (Aß42) autour des cellules nerveuses et la formation d'enchevêtrements neurofibrillaires à l'intérieur des neurones causée par une anomalie dans la phosphorylation d'une protéine, appelée tau. Les chercheurs se sont plus particulièrement penchés sur le rôle joué par les oligomères bêta-amyloïdes. En effet, selon certaines observations, ce sont ces complexes formés de quelques molécules de Aß42 qui sont toxiques pour les neurones et non les plaques ou le peptide seul. L'équipe a donc génétiquement modifié des souris pour que leurs neurones accumulent des oligomères bêta-amyloïdes sans développer de plaques amyloïdes à l'extérieur des cellules. Des troubles caractéristiques de la maladie d'Alzheimer ont ensuite pu être mis en évidence chez les souris génétiquement modifiées. Ainsi, au bout de 8 mois, ces dernières ont développé des troubles de la mémoire, ainsi qu'une perte de la plasticité synaptique dans l'hippocampe et des anomalies dans la phosphorylation de la protéine tau. A 24 mois, les souris génétiquement modifiées possédaient moitié moins de neurones qu'une souris en bonne santé de cet âge.Ces résultats apportent de nouveaux éléments confortant l'idée d'une neurotoxicité des oligomères béta-amyloïdes. Par ailleurs, ils suggèrent que les souris génétiquement modifiées utilisées dans l'étude sont un modèle animal pertinent pour la maladie d'Alzheimer, une pathologie qu'il est pour l'instant difficile d'étudier chez les souris car celles-ci ne la développent pas spontanément. BE : http://www.bulletins-electroniques.com/actualites/62971.htm
|
|
|
|
|
|
|
|
Des chercheurs français ont mis en avant la dualité du cerveau huamine. Lors d'une expérience menée sur trente-deux étudiants, il s'est avéré que gérer une ou deux tâches en même temps est accessible à tous mais qu'en revanche, à partir de trois tâches simultanées, les choses se compliquent considérablement.Le cerveau est divisé en deux hémisphères bien distincts, chacun pouvant se concentrer sur une tâche spécifique. Il s'agit là d'une limite infranchissable : le cerveau humain n'est donc capable d'effectuer que deux activités en même temps. Lors de l'expérience, l'activité cérébrale des étudiants a été analysée par IRM (imagerie par résonance magnétique). Avec la motivation d'un petit gain financier à chaque tâche effectuée, les étudiants étaient invités à reconnaître des séquences de lettres dans une série de lettres en désordre. L'IRM a montré que lorsqu'une seule tâche à la fois était requise, les deux zones frontales des deux hémisphères du cerveau étaient en activité. Puis, lorsque les volontaires devaient effectuer deux tâches, chaque hémisphère s'activait pour effectuer l'une des deux tâches, indépendamment l'un de l'autre. Le cerveau s'adaptait en quelques secondes, mettant en pause la première activité, qu'il reprenait ensuite très rapidement afin d'effectuer les deux activités en même temps de manière coordonnée. Par contre, lorsque la mise en oeuvre d'une troisième tâche simultanément aux deux premières était nécessaire, le cerveau ne pouvait plus répondre correctement à la demande. Les erreurs se faisaient nombreuses et les volontaires étaient beaucoup moins rapides. Bon nombre d'entre eux ont dû mettre en pause l'une des trois activités, afin de pouvoir effectuer les deux autres correctement. Le professeur Etienne Koechlin, qui avec Sylvain Charron est à l'origine de ce projet, explique : "Nous savons que les sujets ont des difficultés à décider au-delà de deux options et notre étude apporte une explication possible à notre tendance aux décisions binaires. Cela s'explique par la nature fondamentalement binaire de notre lobe frontal". MS
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|