|
|
|
|
|
NUMERO 524 |
|
|
|
|
|
|
|
Edition du 29 Juillet 2009
|
|
|
|
|
Edito
Déplacements urbains: le concept de voiture en libre-service va-t-il s'imposer ?
En ville, 50% des déplacements en voiture ne dépassent pas 3 km et 15% font moins de 500 m. Or le premier kilomètre pollue deux fois plus que les autres et toutes les grandes agglomérations cherchent des solutions innovantes visant à la fois à réduire la circulation automobile en centre-ville et à diminuer la pollution liée aux transports particuliers qui est non seulement nocive pour la santé mais contribue au réchauffement climatique. Dans de nombreuses grandes métropoles, Londres, Stockholm, Milan ou Berlin, des systèmes de péages urbains ou de restriction de la circulation automobile ont été instaurés. Mais ces outils, pour intéressants qu'ils soient ne suffisent pas, à eux seuls, à diminuer suffisamment la circulation automobile en ville et de nombreuses villes commencent à expérimenter à plus ou moins grande échelle les concepts d'autopartage et de véhicules en libre service. A Ulm, en Allemagne, Veronika n'a pas les moyens de s'acheter une voiture. Mais elle avoue n'être guère une adepte des transports en commun. Pour se rendre à ses cours à l'université d'Ulm, elle a donc adopté le système Car2go, mis à la disposition des habitants de cette jolie ville du sud-ouest de l'Allemagne depuis fin mars : un service de voitures en libre-service, conçu par le groupe Daimler avec sa marque Smart Fortwo. "Cela m'économise un long trajet en bus, explique Veronika. Et je peux prendre et laisser la voiture à peu près n'importe où, c'est pratique." La flexibilité, c'est la clé du concept Car2go. A ce jour inédite pour l'automobile, la formule évoque le modèle du Vélib' parisien que le maire de Paris, cherche à dupliquer en Autolib'. Contrairement au système traditionnel d'autopartage, le client n'est soumis à aucune contrainte de réservation. Il n'a pas à se rendre à une adresse donnée pour aller chercher son véhicule ou le restituer. Les voitures sont garées un peu partout en ville sur des emplacements gratuits, loués à Daimler par la municipalité, à des tarifs avantageux. Pour trouver la Smart la plus proche, il suffit d'appeler un central téléphonique. Le déverrouillage s'effectue ensuite grâce à une puce magnétique que l'utilisateur se fait coller sur son permis de conduire après une inscription gratuite. Sur la grand-place d'Ulm, la boutique chargée de délivrer le précieux sésame ne désemplit pas. "Même des touristes de passage veulent essayer", rapporte le vendeur. Comme Veronika, ils sont déjà plus de 9 000 à s'être enregistrés, sur les quelque 120 000 résidents de la cité souabe. Un chiffre qui augmente tous les jours et dépasse de loin les espérances des responsables du projet chez Daimler. "C'est un modèle qui fonctionne, car il est dans l'air du temps, estime le porte-parole,Andreas Lo. En milieu urbain, de moins en moins de gens possèdent une voiture ou bien répugnent à l'utiliser, à cause des difficultés de stationnement." Ainsi Daniela Schurch a renoncé à prendre son propre véhicule quand elle doit se rendre dans le centre-ville. "Cela me coûte trop cher en place de parking", explique cette jeune fonctionnaire, qui affirme faire des économies en louant une Smart de Car2go. Le tarif est de 19 centimes d'euros la minute tout compris (location, essence, assurance, stationnement). Le concept a démarré à Ulm à cause de la proximité d'un centre de recherche Daimler. "Notre but est surtout écologique, car nous espérons qu'un maximum de gens seront tentés de renoncer à leur voiture", explique Walter Laitenberg,chef de cabinet du maire. Les 200 Smart ne fonctionnent pourtant pas à l'électrique. Un choix que l'équipe de Daimler justifie par la complexité des infrastructures. "Mais si elle roule au diesel, la Smart n'est pas très polluante, car elle consomme extrêmement peu", justifie M. Leo. Avant de démarrer, il faut y entrer un certain nombre de données, notamment sur l'état de propreté intérieure et extérieure, ce qui permet d'évaluer l'utilisateur précédent. A long terme, le but est d'exporter le projet dans des agglomérations plus grandes. "Il faut commencer à petite échelle pour apprendre, mais Car2go a tout pour séduire des grandes villes qui ont des problèmes d'embouteillage", affirme M. Guillen. Dès l'automne, le concept sera développé à Austin, la capitale du Texas, qui compte 750 000 habitants. Il est vrai que la voiture en libre service est également en train de décoller outre Atlantique. Zipcar, la voiture à louer en libre-service, compte 300 000 abonnés après 10 ans d'existence aux USA et devrait enregistrer pour la première fois cette année des bénéfices. "La société s'agrandit malgré les difficultés de l'économie", a précisé Luke Schneider, directeur du service Technologie de Zipcar. "Cela change fondamentalement le rapport que les gens ont avec les transports dans nos villes", explique-t-il. "C'est un nouveau style de vie, plus simple et de meilleure qualité. La société, créée par deux anciens camarades de classe de Boston en 1999, vient par ailleurs de lancer une application sur l'Iphone afin de trouver plus facilement les voitures disponibles. "Le téléphone localise votre position", explique M. Schneider, "il vous montre où sont les Zipcar les plus proches". A Washington, 800 Zipcar sont stationnés aux quatre coins de la ville. L'abonnement annuel est de 50 dollars. La voiture coûte ensuite entre 7 et 14 dollars par heure suivant le modèle. La réservation peut se faire sur le site internet de la société. La voiture s'ouvre ensuite grâce à la carte magnétique que possède chaque abonné. Outre- Manche, Londres vient également de mettre en place un tout nouveau système d'autopartage, par le biais d'un accord entre ZipCar et le Conseil municipal de Westminster. La réduction du nombre de véhicules reste donc un objectif majeur pour les londoniens, déjà limité par le péage urbain. Mais l'intérêt de cette mesure réside également dans le choix des véhicules : Toyota Prius, Honda Insight hybride ou Citroën C1 électrique. Les personnes réfractaires aux voitures écologiques pourront toujours se satisfaire d'une Mini Cooper ou d'une BMW 318 classiques. L'objectif souhaité est de proposer 400 véhicules d'ici 2012, avec 30% d'hybrides, situés à proximité des lieux d'habitation et de travail. Le conseil de Westminster dispose du plus important service de recharge de voiture, avec 14 points de charge. Une étude montre que chaque véhicule issu du club remplace jusqu'à 20 voitures privées et que les membres réduisent leurs trajets de 40%. En France, Le préfet de Paris vient d'approuver la création du syndicat mixte nommé « Autolib ». Ce concept déjà réalisé à Lyon ressemble fort à celui des Vélib qui a eu un franc succès dans la capitale puis dans les grandes villes de province. Adapté pour les voitures, Autolib' vise à mettre à disposition entre 3 000 et 4 000 véhicules électriques d'ici un an et demi. Il faudra d'abord s'abonner au service, pour 15 à 20 euros par mois. Chaque utilisateur pourra ensuite prendre une automobile électrique disposant de 2 ou 4 places assises, dans l'une des stations et la restituer dans n'importe quelle autre. L'utilisation du véhicule coûtera entre 4 et 5 euros par une demi-heure. Des forfaits à la journée seront peut-être envisagés par la suite. Si le service vise à réduire l'utilisation des véhicules particuliers, ce concept ne fait pas l'unanimité. Les Verts, par exemple, remettent en cause son caractère écologique. A Toulouse, depuis mars 2009, les habitants peuvent emprunter l'un des 11 véhicules mis à disposition, sur un principe analogue à VélôToulouse, pour des trajets urbains et péri-urbains. Seule condition : réserver la voiture au préalable. L'idée a germé en 1995 mais Mobilib' n'est née qu'en septembre 2007. « Nous visions un projet sans but lucratif, permettant aux citoyens de prendre en charge eux-mêmes leur mobilité urbaine », précise Dominique Platon, son président et fondateur, ingénieur en retraite. L'association, qui comptait 85 adhérents et 390 sympathisants, s'est transformée en octobre 2008 en SCIC, société coopérative d'intérêt collectif. Cette dernière compte près de 70 sociétaires, dont Tisséo. La municipalité et la Caisse d'allocations familiales ont fait part de leur intérêt. Le système proposé est simple. 24h/24, l'utilisateur réserve sur internet ou par téléphone, pour un jour et une durée, la voiture la plus proche. Avec sa carte à puce, il ouvre le véhicule, récupère la clé et peut alors circuler à sa guise. Il le ramène ensuite au parking de son choix. La voiture transmet les données grâce à un système embarqué et un GPS. Le projet s'adresse essentiellement aux personnes qui n'ont besoin d'une voiture qu'occasionnellement, pour des trajets courts : faire des courses, transporter un meuble, passer une soirée chez des amis...« Il ne concerne pas que les particuliers, rajoute Dominique Platon. Pour que les véhicules soient amortis, il faut qu'ils roulent 6 heures par jour. Nous visons donc d'autres populations, les professions libérales et les artisans qui se déplacent peu souvent par exemple. » Dominique Platon espère que 110 à 120 personnes les utiliseront dans un premier temps. « Dans un an, nous espérons racheter 20 voitures et élargir le système aux autres couronnes toulousaines. » Gros avantage, l'inter-opérabilité : la carte Mobilib' fonctionnera avec d'autres systèmes d'autopartage français, à Paris, Lille, Lyon, etc. Une réflexion est aussi menée pour la rendre valable dans les bus de Tisséo et avec VélôToulouse. Reste la question du coût. Deux possibilités, selon que l'on soit sociétaire (une part sociale vaut 750 euros, elle est défiscalisée) ou simple utilisateur (droit d'entrée de 100 euros). Dans tous les cas, il faut régler un abonnement mensuel. Se rajoute un tarif d'utilisation horaire et kilométrique. Il faut compter 2 euros par heure pour les sociétaires, 2,50 euros pour les usagers. La facture est mensualisée. « On peut estimer qu'une voiture individuelle coûte 320 euros par mois, contre 133 euros avec un véhicule en auto-partage pour 40 heures d'utilisation », avance Dominique Platon. On voit donc que, pour diminuer de manière sensible la pollution, les nuisances et les émissions de gaz à effet de serre liées à l'utilisation des voitures, les grandes villes vont devoir combiner de manière novatrice trois outils complémentaires : le péage urbain « intelligent » et modulable en fonction de l'heure et du type de véhicule, l'utilisation de véhicules propres en libre service, associée au covoiturage et le développement de transports en commun « à la carte » de nouvelle génération, capables de s'adapter en temps réel à l'évolution de la demande. A ces outils pourront bien sur s'ajouter toute une panoplie d'incitations fiscales, locale ou nationale, incitant à l'utilisation des transports en commun ou de véhicules propres. Enfin les villes devront généraliser le télétravail et les téléactivités et repenser l'urbanisme pour inverser la tendance intenable qui allonge chaque année un peu plus la distance entre le domicile du travail et limiter, à la source, les besoins de déplacements. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le Sénat en a voté le 21 juillet sur un sujet assez technique, celui de la couverture haut débit des collectivités territoriales. Ce texte relatif à la lutte contre la fracture numérique, présenté par le sénateur UMP de la Gironde Xavier Pintat, est assez court, mais son premier article annonce la couleur. Il prévoit la mise en place de schémas directeurs permettant de recenser « les infrastructures et réseaux de communications électroniques existant, d'identifier les zones qu'ils desservent et de présenter une stratégie de développement de ces réseaux, concernant prioritairement les réseaux à très haut débit fixes et mobiles permettant d'assurer la couverture du territoire concerné ». Au départ, la proposition de loi avançait même une échéance à dix ans à partir de la publication de la loi au Journal officiel, mais cette référence a été supprimée lors du vote. Selon Xavier Pintat, dans son exposé des motifs, l'enjeu est de gommer les disparités entre citoyens dans l'accès aux services numériques. Au « tiers des abonnés, explique-t-il, les offres triple-play pour, à la fois, surfer confortablement sur la Toile, téléphoner et regarder la télévision ; aux autres, simplement la téléphonie et la navigation laborieuse sur le réseau ». "Nous devons tout faire pour permettre à l'ensemble de nos territoires de bénéficier du très haut débit dans un délai raisonnable. Comme l'électricité, il fera bientôt figure de service vital, rendant insupportable toute fracture territoriale" a expliqué M. Pintat.Il a affirmé qu'"on ne compte aujourd'hui pour 18 millions d'abonnés au haut débit que 180.000 abonnés au très haut débit" et seulement dans les zones urbaines. La secrétaire d'Etat de la Prospective et du développement de l'économie numérique, Nathalie Koscusko-Morizet, a apporté son appui au texte, dont elle a jugé qu'il "s'inscrit dans le cadre du déploiement des réseaux à très haut débit et du passage à la TNT". Une situation « insupportable », notamment pour les entreprises pour lesquelles les réseaux sont un outil de travail. L'existence de zones mal desservies les dissuaderait de s'y implanter, avec pour effet de nuire au développement économique de ces territoires. Selon cette proposition de loi, les collectivités seront aidées financièrement par un « fonds d'aménagement numérique des territoires ». Il servira aux travaux de « réalisation des ouvrages prévus par les schémas directeurs territoriaux d'aménagement numérique ». Le texte précise le rôle de la collectivité dans la mise en oeuvre d'un chantier d'infrastructures de réseau. Les sénateurs sont également entrés dans le détail du déploiement de la télévision numérique terrestre (TNT), qui doit remplacer la télévision analogique d'ici à novembre 2011. Ils ont ainsi ajouté au texte initial toute une série d'articles donnant au CSA le rôle d'accompagnateur des collectivités dans ce chantier. Le conseil informe les maires, s'assure qu'une couverture minimale est assurée et identifie les zones qui ne sont pas couvertes. Les sénateurs ont également inclus dans le texte la possibilité d'un soutien financier aux foyers qui, une fois la télévision analogique éteinte, ne recevront pas la TNT et « devront s'équiper de moyens de réception alternatifs » OINet
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Dans le cadre du projet de recherche "Efficacité énergétique pour les systèmes robotiques" (Energieeffiziente Robotersysteme - EneRo), les chercheurs de l'Institut Fraunhofer de technique de production et d'automatisation (IPA) ont étudié la consommation énergétique des systèmes robotiques afin d'identifier les facteurs d'influence et d'en déduire des potentiels d'optimisation. La hausse des coûts énergétiques d'une part, la politique de soutien de l'Etat vis-à-vis du changement climatique et la réduction des émissions de CO2 d'autre part, ont fait des technologies relatives à l'efficacité énergétique un facteur économique de première importance. Par exemple, les prix des fournisseurs d'électricité ont augmenté d'à peu près 45% entre 2003 et 2007. Avec plus de 130.000 unités mises en place, les systèmes robotisés représentent un élément clé de la production automatisée et par conséquent, une part importante de la consommation énergétique dans les entreprises de production. L'utilisation plus efficace de l'énergie pour les systèmes robotiques peut aider à réduire leur besoin en énergie et les coûts. Les études menées sur la consommation électrique du robot (130 kg de charge utile, un rayon de travail de 3 mètres) par les chercheurs de l'Institut Fraunhofer IPA ont par exemple montré que, dans le cas d'une réduction de 25% de la vitesse des procédés, la consommation d'énergie chute quant à elle de 30%. En outre, la réduction de 50% de charge assure, selon les mouvements, une diminution de la consommation d'énergie pouvant aller jusqu'à 25 % BE
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Constituer un partenariat afin de disposer de tous les atouts qui permettent de gagner la prochaine bataille du solaire. Tel est l'objectif de PV Alliance, un consortium, créé en septembre 2007, qui regroupe Photowatt, l'acteur historique de l'énergie solaire en France, le LITEN, qui est le Laboratoire d'Innovations des Technologies des Energies Nouvelles et des Nanomatériaux du CEA, et le groupe EDF Energies Réparties (EDF ENR), spécialisé dans la production d'électricité ou de chaleur à partir d'énergie renouvelables. Sa première mission : la réalisation d'un grand programme de R&D, "Solar Nano Crystal", qui regroupe 7 partenaires et bénéficie d'un budget de 129 millions d'euros. Objectifs : développer, d'une part les premières cellules solaires a base de silicium métallurgique purifié, cellules dites à haut rendement, d'autre part des cellules solaires à très haut rendement utilisant le polysilicium. "L'idée remonte à environ quatre ans. Je dirigeais alors Photowatt, le seul fabriquant français de cellules solaires. Mon constat était que nous n'arrivions plus à attirer les investissements en France, ce qui, il est vrai, n'est pas propre au secteur de l'énergie solaire. Cela dit, le solaire est une industrie jeune. Aussi était-il urgent d'agir", explique Eric Laborde, Président de PV Alliance. D'où son idée d'aller voir Jean Therme, directeur de la recherche technologique du CEA, "qui dispose d'un formidable outil de génération d'innovations autour du silicium et de l'électronique", souligne-t-il, afin de lui proposer de bâtir une alliance dans le solaire sur le même principe que celle développée, il y a quelques années, dans la microélectronique. Décision est alors prise de bâtir une industrie du solaire en France, où il existe déjà un embryon, avec pour objectif, non pas de viser la génération actuelle, celle du silicium classique, où la bataille a déjà été perdue, mais les prochaines générations, celle du haut rendement, basée sur l'utilisation du silicium métallurgique, et celle du très haut rendement et du polysilicium. _ C'est dans ce contexte qu'est créé PV Alliance, un consortium regroupant Photowatt qui détient 40% du capital, le Laboratoire d'Innovations des Technologies des Energies Nouvelles et des Nanomatériaux du CEA, dont sa filiale CEA valorisation détient 20% du consortium, les 40% restants étant détenus par EDF ENR. Les partenaires de PV Alliance ayant décidé de faire le pari de la R&D, un grand programme de recherche est aussitôt lancé. D'une durée de cinq ans, ce programme, baptisé "Solar Nano Crystal", dispose d'un budget de 129 millions d'euros, dont 46,5 millions d'euros sont financés par Oséo, et regroupe 7 partenaires. Premier objectif de PV Alliance, développer des cellules solaires à base de silicium métallurgique purifié. "Notre but est d'atteindre 16% de rendement dès l'an prochain, c'est-à-dire l'efficacité des cellules solaires disponibles aujourd'hui sur le marché. Cela nous permettra de diminuer les coûts et de prolonger la durée de vie des équipements actuels", précise Eric laborde. Le second objectif de ce consortium est de développer ce qu'on appelle le "très haut rendement", les plus optimistes parlant de 22%. BE
|
|
|
|
|
|
|
|
L'Allemagne possède enfin ses premières installations éoliennes offshore (en haute mer) : le 15 juillet 2009, le consortium formé par les groupes énergétiques EWE, E.ON et Vattenfall, ainsi que la Société allemande de champ d'études offshore et infrastructures (DOTI, créée en juin 2006 Le prochain pas consiste en la mise en activité progressive de la première éolienne. A cela s'ajoute également la connexion de l'installation au poste de transformation offshore en mer, qui s'effectuera dans les prochaines semaines. La surveillance et la gestion de l'exploitation complète du parc éolien achevé seront gérées ultérieurement par EWE. "Nous rassemblerons des expériences importantes en ce qui concerne la disponibilité future et la maintenance des éoliennes", selon Dr. Claus Burkhardt (EWE), directeur administratif du DOTI responsable du domaine. "Ce savoir nous fournira aussi des informations supplémentaires sur la rentabilité des parcs éoliens offshore", complète le Dr. Burkhardt. Déjà en septembre 2008, le DOTI a relevé le défi du transport vers la terre de l'électricité éolienne produite, avec l'édification couronnée de succès du poste de transformation offshore. La société Transpower (anciennement E.ON Netz) a posé l'année dernière un câble maritime reliant le poste de transformation avec le réseau d'électricité allemand. L'énergie éolienne en haute mer est une forme prometteuse d'énergie renouvelable, qui ouvre notamment de nouvelles potentialités à la production d'énergie éolienne. Ses partisans mettent en évidence l'augmentation de l'efficacité des installations éolienne offshore : le vent étant plus fort et moins irrégulier en mer qu'à terre, il peut offrir en haute mer un rendement supérieur à 40%. Cependant, le matériel au contact de l'eau agitée de la mer du Nord et de l'air très salé est soumis à des exigences inconnues. Les effets sur l'environnement doivent aussi être étudiés. Les sites des éoliennes sur la terre ferme semblent être en grande partie épuisés, et leur rendement électrique ne pourrait être augmenté que grâce à l'installation de mâts plus grands et de pales plus larges. Pour les années à venir, une vingtaine de grands projets ont d'ores et déjà reçu une autorisation pour la construction de parcs éoliens offshore en mer du Nord et en mer Baltique.Les autorités allemandes prévoient l'installation d'une puissance totale de 20.000 à 25.000 MW dans le domaine de l'éolien offshore d'ici 2030 [BE">1]), ont installé avec succès la première des 12 éoliennes du parc éolien Alpha Ventus [2] dans la mer du Nord. Une équipe de 50 spécialistes des trois entreprises participantes est mobilisée sur le chantier en haute mer et gère le projet. L'installation, possédant une puissance nominale de 5 MW, est implantée à 45 km au nord de l'île de Borkum. Les 12 installations devraient entrer en activité d'ici la fin de l'année 2009. Les éoliennes de 180 mètres de haut sont scellées dans le fond marin par des fondations en béton de 45 mètres de haut pesant 770 tonnes. Alpha Ventus sera le premier parc éolien offshore allemand en haute mer. La somme des investissements dans ce projet pionnier s'élève à 250 millions d'euros. La quantité d'électricité qui sera produite annuellement assurera la consommation de 50.000 foyers. La construction des éoliennes a débuté mi-avril 2009 [3], après l'interruption, en août 2008, d'un premier essai (débuté mi-2007) pour cause de conditions météorologiques défavorables et de problèmes techniques. A présent, les fondations bétonnées doivent s'enfoncer de 30 m dans les profondeurs marines. Depuis avril 2009, les travaux ont avancé suffisamment vite pour que l'édification de la première éolienne respecte parfaitement le planning. En décidant de construire le premier parc éolien offshore allemand Alpha Ventus, les 3 partenaires ont pénétré une zone encore non explorée. Certes, d'autres projets éoliens européens avaient déjà été effectués par différentes entreprises séparément, mais les conditions cadres d'Alpha Ventus sont uniques jusqu'à présent. "La somme des investissements pour Alpha Ventus a été revue à la hausse, des 190 millions d'euros initialement prévus à 250 millions d'euros actuellement", affirme Olivier Funk de Vattenfall, directeur administratif du DOTI. "Nous pouvons ainsi déjà dire que nous avons payé des frais d'apprentissage, mais cet argent est bien employé. Pour des projets futurs, chacune des entreprises partenaires profitera des expériences précieuses acquises avec Alpha Ventus", selon M. Funk. A cause de l'accroissement des coûts, le Gouvernement fédéral a augmenté les rétributions reçues par les producteurs offshore pour l'intégration de l'électricité dans le réseau, de 9 à 15 c euros/KWh. Le prochain pas consiste en la mise en activité progressive de la première éolienne. A cela s'ajoute également la connexion de l'installation au poste de transformation offshore en mer, qui s'effectuera dans les prochaines semaines. La surveillance et la gestion de l'exploitation complète du parc éolien achevé seront gérées ultérieurement par EWE. "Nous rassemblerons des expériences importantes en ce qui concerne la disponibilité future et la maintenance des éoliennes", selon Dr. Claus Burkhardt (EWE), directeur administratif du DOTI responsable du domaine. "Ce savoir nous fournira aussi des informations supplémentaires sur la rentabilité des parcs éoliens offshore", complète le Dr. Burkhardt. Déjà en septembre 2008, le DOTI a relevé le défi du transport vers la terre de l'électricité éolienne produite, avec l'édification couronnée de succès du poste de transformation offshore. La société Transpower (anciennement E.ON Netz) a posé l'année dernière un câble maritime reliant le poste de transformation avec le réseau d'électricité allemand. L'énergie éolienne en haute mer est une forme prometteuse d'énergie renouvelable, qui ouvre notamment de nouvelles potentialités à la production d'énergie éolienne. Ses partisans mettent en évidence l'augmentation de l'efficacité des installations éolienne offshore : le vent étant plus fort et moins irrégulier en mer qu'à terre, il peut offrir en haute mer un rendement supérieur à 40%. Cependant, le matériel au contact de l'eau agitée de la mer du Nord et de l'air très salé est soumis à des exigences inconnues. Les effets sur l'environnement doivent aussi être étudiés. Les sites des éoliennes sur la terre ferme semblent être en grande partie épuisés, et leur rendement électrique ne pourrait être augmenté que grâce à l'installation de mâts plus grands et de pales plus larges. Pour les années à venir, une vingtaine de grands projets ont d'ores et déjà reçu une autorisation pour la construction de parcs éoliens offshore en mer du Nord et en mer Baltique.Les autorités allemandes prévoient l'installation d'une puissance totale de 20.000 à 25.000 MW dans le domaine de l'éolien offshore d'ici 2030 [BE
|
|
|
|
|
|
|
|
L'eau mondiale est constituée à 97% d'eau salée, et seuls 3% sont potentiellement traitables en eau potable. Avec l'augmentation de la population mondiale et l'accroissement de la consommation d'eau correspondant, l'approvisionnement en eau pluviale uniquement, à partir de vaporisation naturelle, ne suffit plus. Aujourd'hui déjà, 1,1 milliard de personnes vivent sans accès à l'eau potable. La qualité de l'eau est déterminante : l'eau potable pour l'homme et les animaux (environ 10% de la consommation d'eau) doit être dépourvue de germes et de polluants et avoir un goût supportable ; pour l'irrigation (environ 70%) et l'utilisation comme eau industrielle (environ 20%), les exigences de qualité sont moins élevées. Mais un approvisionnement suffisant en eau usée et surtout potable de la population mondiale en continuelle augmentation constituera également un problème croissant en ce qui concerne la consommation d'énergie. Etant donné que l'homme ne possède pas de réservoirs considérables pour l'eau, de l'eau potable doit être disponible à tout instant. Et cela ne se fait pas sans une certaine consommation d'énergie, avec les coûts correspondants. Notamment, l'eau usée suite à l'utilisation humaine doit être traitée pour pouvoir à nouveau alimenter le stock d'eau douce de la Terre, ce qui coûte environ 45 KWh par utilisateur et par an. Il est donc fondamental d'une part d'économiser l'eau et l'énergie, et d'autre part d'explorer de nouvelles réserves d'eau dans les zones désertiques. Le rôle des technologies dans l'économie d'eau pour l'agriculture est démontré : par exemple des procédés plus efficaces d'irrigation (irrigation des racines au lieu d'un mouillage à haut taux d'évaporation), la culture de fruits avec un besoin d'eau réduit (céréales au lieu de riz) ainsi que l'utilisation d'eau usée convenablement traitée (par ex. par l'utilisation de nitrates et phosphates comme engrais). Ces technologies servent à économiser une partie de l'énergie. Le Prof. Steusloff, expert en eau de l'Institut Fraunhofer pour le traitement de l'information et des données (IITB), affirme : "L'exploration des réserves encore considérables en eau des nappes phréatiques nécessite des pompes énergétiques. Les eaux souterraines sont extraites à grande profondeur, par exemple jusqu'à 200 m de profondeur dans le Nord-Est de la Chine. Une diminution du niveau des nappes phréatiques de plus d'un mètre par an à cause d'une néoformation insuffisante des eaux souterraines pourrait conduire à la destruction à moyen terme de cette ressource en eau dans l'agglomération de Pékin." L'eau de mer ainsi que l'eau des nappes phréatiques contiennent des substances dissolues qui doivent être éliminées avec une consommation d'énergie correspondante - selon les contraintes d'application. L'eau douce peut être produite à partir d'eau de mer grâce à des procédés très coûteux en énergie. Selon la technologie utilisée, les prix s'échelonnent pour 1 mètre cube d'eau entre 60 et 80 centimes d'euro, soit environ le double des coûts engendrés par l'utilisation directe d'eau des nappes phréatiques. Certes, le recyclage de la saumure est problématique, mais le dessalement de l'eau de mer utilise une "base en matière première" inépuisable en pratique et se montre aussi durable, l'énergie nécessaire étant produite grâce à des centrales thermiques solaires. Un problème énergétique supplémentaire est posé par le transport de l'eau dans des camions-citernes (usage de carburant) ou des conduites (pompes énergétiques) et des canaux ouverts (pertes par évaporation). Compléter les ressources aqueuses continentales surfaciques et souterraines par l'eau de mer dessalée exigera aussi de l'énergie liée aux transports. BE
|
|
|
|
|
|
|
|
Les Pays-Bas veulent doubler d'ici à 2011 leur capacité de production d'énergie éolienne pour atteindre 4.000 mégawatts, a annoncé mardi le ministère de l'Environnement en promettant une simplification de la législation pour faciliter l'installation d'éoliennes.La ministre de l'Environnement, Jacqueline Cramer, s'attend à la construction de 600 à 800 nouvelles éoliennes dans les deux ans à venir, a indiqué à l'AFP son porte-parole Jan-Jaap Eikelboom. Elle a signé mardi à Rotterdam un projet avec les communes, les provinces, des associations de défense de l'environnement et de la nature et des représentants du secteur à ce propos. Les Pays-Bas comptent actuellement quelque 2.000 éoliennes produisant un peu plus de 2.000 mégawatts, a précisé le porte-parole, soit bien moins que des pays comme l'Allemagne, qui a une capacité de plus de 20.000 mégawatts, ou l'Espagne. Des mesures vont être prises dans les six mois à venir pour uniformiser au niveau national les normes en matière de sécurité, de nuisances sonores et de détection des éoliennes par les radars de l'aviation. Jusqu'ici, celles-ci étaient édictées par les communes et provinces, a expliqué M. Eikelboom.La ministre a aussi appelé mardi les entreprises de construction et d'exploitation d'éoliennes et les associations de défense de la nature à élaborer ensemble un plan pour produire d'ici à 2020 quelque 6.000 mégawatts par l'énergie éolienne.Les Pays-Bas veulent que 30% de la production totale d'énergie soit renouvelable en 2020 et ambitionnent de réduire de 20% d'ici là leurs émissions de gaz à effet de serre par rapport à 1990. Google
|
|
|
|
|
|
|
|
La Chancelière allemande Angela Merkel a inauguré en avril 2009 une centrale innovante au plan mondial : cette centrale hybride biogaz / éolien érigée à Prenzlau (Brandebourg) au nord de Berlin devrait utiliser une partie de l'énergie éolienne captée en surplus pour fabriquer de l'hydrogène, qui sera stocké pour produire de l'électricité sur commande et alimenter des automobiles du futur via des piles ad hoc. Une combinaison des énergies qui peut élargir le spectre d'utilisation des énergies renouvelables. Selon les détracteurs de l'énergie éolienne, cette source d'énergie intermittente ne peut pas vraiment être qualifiée de propre. En effet, en l'absence de vent, il faut faire appel aux centrales fossiles classiques pour fournir l'électricité de base. Au contraire, en cas de vent fort, les éoliennes conventionnelles génèrent souvent plus d'électricité que la capacité d'intégration du réseau. Cette électricité éolienne ne peut être stockée et entre en compétition avec l'électricité produite en continu par les centrales thermiques de base (en particulier les centrales à charbon), peu flexibles. Elle doit alors être vendue à un prix sacrifié. Une solution existe pour résoudre le problème provoqué par un vent trop faible : une centrale hybride biogaz / éolien. Le biogaz peut être transporté, stocké et brûlé pour produire de l'électricité verte, qui est en cas de besoin couplée avec l'énergie éolienne renouvelable. Mais que faire en cas de vent fort ? L'idée innovante de l'entreprise Enertrag à Prenzlau consiste à coupler une centrale hybride biogaz/éolien avec une installation de production d'hydrogène (H2), jusqu'à présent généré principalement à partir d'énergies conventionnelles. L'hydrogène sera produit par électrolyse grâce à une alimentation en énergie électrique éolienne, avec un rendement de 70-85%. Cet hydrogène ainsi produit sous une pression d'environ 30 bars contiendra quelque 100 kWh d'énergie par mètre cube2]. Puis l'hydrogène, facilement transportable par pipeline, sera stocké dans des cavités de gaz, mélangé avec du méthane, permettant ainsi de stocker l'énergie excédentaire du vent. En cas de vent faible, l'hydrogène sera mélangé avec du biogaz et utilisé comme source de chaleur ou d'électricité. L'entreprise pétrolière Total achètera également une partie du gaz pour ses stations services à hydrogène.La centrale hybride, dont la mise en fonctionnement est prévue pour 2010, devrait coûter environ 21 millions d'euros. Ses dimensions sont plutôt modestes. La centrale combinera ainsi trois génératrices éoliennes déjà existantes, à capacité de 2 MW chacune, et une usine de biomasse. La puissance combinée sera de 120 MW. Selon le Ministère de l'environnement du Land de Brandebourg à Postdam, environ 3.000 personnes travaillent dans la branche éolienne brandebourgeoise, particulièrement dynamique. Par ailleurs, les quelque 400 éoliennes d'Enertrag concentrées en Europe produisent plus d'un milliard de kWh d'électricité par an, couvrant ainsi les besoins d'un million de personnes.La production d'hydrogène pratiquée jusqu'à présent à partir de gaz naturel ne pourra pas suffire à couvrir le besoin futur, selon une étude : d'ici 2050, 70% de la flotte automobile allemande pourrait être alimentée avec de l'hydrogène. Pour le moment, il n'existe que peu de véhicules test en circulation. [Expansion
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Une étude publiée dans la revue Nature Geoscience vient corroborer les prévisions du GIEC concernant l'élévation du niveau des mers. Elles pourraient s'élever de 7 à 82 cm d'ici 2100. Certaines prévisions sont beaucoup plus pessimistes, les climatologues de la NASA estimant à 2,25 mètres d'ici la fin du siècle l'élévation probable du niveau des océans. A partir de 50 centimètres, les régions situées au niveau de la mer sont fortement menacées par lesinondations. 634 millions de personnes vivent sur les côtes à 10 mètres ou moins du niveau de la mer et 13 % de la population urbaine mondiale vit sur ces côtes à risques, qui ne couvrent pourtant que 2 % de la surface mondiale. L'OCDE a estimé qu'une hausse de 50 cm du niveau des mers exposerait 150 millions de personnes à des inondations en cas de forte tempête.Selon l'International Institute for the Environment and Development (IIED), 143 880 personnes en Chine sont menacées par les inondations des zones côtières. En Inde et au Bangladesh, ce sont respectivement 63 118 et 62524 personnes qui pourraient être inondées. En cas de montée du niveau de la mer, 88 % de la population au Bahamas, 76 % au Surinam et 74 % au Pays-Bas subiraient des inondations. En plus de probables pertes humaines et des dégâts matériels, les inondations amèneraient de l'eau salée dans les sources d'eau douce exploitées par les habitants des zones côtières, ce qui affecterait la ressource en eau potable. Verdura
|
|
|
|
|
|
|
|
Les chercheurs de la faculté d'ingénierie et de sciences appliquées de l'UCLA (University of California, Los Angeles) ont mis au point un nouveau système de filtration et de dessalement des eaux salines. Appelé M3 (en anglais "Mini-Mobile-Modular"), ce prototype utilise un procédé de déminéralisation (osmose inverse) mis au point par l'Université et qui s'adapte à diverses sources de pollution. Selon Yoram Cohen, chercheur en génie chimique et biomoléculaire et directeur du centre de recherche universitaire "WaTeR" dédié aux technologies de traitement de l'eau, le M3 a pour particularité de mesurer in situ de nombreuses variables (température, pH, turbidité, salinité..) tout en analysant simultanément les données. Le système peut ainsi calculer directement les quantités de produits chimiques nécessaires à la préservation de l'eau potable. Automatisé et transportable d'une source à l'autre, ce système a la capacité de produire 23m3 d'eau potable journalière à partir de 30m3 d'eau de mer ou de 34 m3 d'eau saumâtre. Testé dans la Vallée de Californie "San Joacquim", le M3 a traité les rejets salins provenant des eaux de drainage des terrains agricoles. Si ces rejets sont généralement difficiles à dépolluer en raison de leur saturation en sels minéraux, 65% de l'eau traitée était potable à la fin de la première étape de filtration. L'équipe de chercheurs assure par ailleurs que ce rendement pourrait atteindre 95% en utilisant un processus de déminéralisation accéléré. Alors que la Californie s'oriente de plus en plus vers une gestion de ses ressources en eau intégrant le dessalement de l'eau de mer 1], la construction d'usines de désalinisation reste cependant un procédé long et couteux, notamment en raison de la construction d'usines pilotes lesquelles ont pour objectif de déterminer la faisabilité des projets et le rendement des futures infrastructures. Cohen affirme ainsi que le système M3 pourrait réduire significativement les coûts de construction, le prototype de UCLA pouvant se substituer à la construction d'usines pilotes. [BE
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une étude remet en question un des postulats les plus fondamentaux de la génétique humaine voulant que, lorsqu'il est question d'ADN, chaque cellule du corps soit identique.Sauf dans les cas de cancer, il est difficile, même impossible, de prélever des tissus malades sur des patients en vie. Par conséquent, la grande majorité des échantillons génétiques utilisés dans les études à grande échelle sont sous forme de cellules sanguines. Toutefois, s'il s'avérait que les cellules du sang et des tissus ne correspondent pas génétiquement, ces études vastes et ambitieuses de la totalité du génome pourraient avoir été essentiellement faussées dès le début. C'est en tout cas ce qu'affirme un groupe de chercheurs de l'Université de Montréal dans le numéro de juillet du bulletin Human Mutation. Cette découverte découle d'une recherche sur les causes génétiques des anévrismes aortiques abdominaux (AAA). Les scientifiques étudiaient alors BAK, un gène qui contrôle la mort de la cellule. L'AAA est une des rares maladies vasculaires dont la thérapie comprend le prélèvement d'échantillons de tissus. Lorsqu'ils les ont comparés, les chercheurs ont découvert des différences importantes entre les gènes BAK des cellules sanguines et ceux des cellules de tissus provenant des mêmes individus, le « déclencheur » présumé de la maladie se trouvant uniquement dans les tissus. Qui plus est, les mêmes différences paraissaient ensuite évidentes dans des échantillons provenant d'individus en bonne santé. « Dans les cas de maladies multifactorielles autres que le cancer, nous ne pouvons habituellement étudier que le sang », a expliqué le Dr Gottlieb, généticien. « Traditionnellement, quand nous avons cherché des facteurs de risque génétiques, nous avons présumé que le sang nous indiquerait ce qui se produit dans les tissus. Il semble maintenant que ce ne soit tout simplement pas le cas. » Si cette découverte se confirme, c'est peut-être toute la recherche en génétique, et principalement les données concernant les facteurs de risques, qui est à revoir. NO
|
|
|
|
|
|
|
|
Les cellules souches suscitent beaucoup d'espoir grâce à leur extraordinaire capacité à produire, selon leur origine, tous les types de cellules du corps ou d'un organe. Aujourd'hui, les chercheurs essayent de comprendre les mécanismes qui orientent les cellules souches vers telle ou telle spécialisation. Au centre d'immunologie de Marseille-Luminy, des chercheurs du CNRS et de l'Inserm ont travaillé sur les cellules souches du sang de souris. Ils ont étudié le développement des cellules myéloïdes, une famille de globules blancs qui luttent contre les microbes en les « mangeant », en libérant des toxines ou en alertant d'autres cellules immunitaires spécialisées. Jusqu'à présent, on pensait que la production des différentes cellules spécialisées à partir de la cellule souche du sang était aléatoire. L'équipe de Michael Sieweke a découvert que pour les cellules myéloïdes, c'est l'action conjointe de deux protéines qui est déterminante, l'une située à l'intérieur de la cellule (un facteur de transcription) et l'autre à l'extérieur (une cytokine). Les facteurs de transcription jouent le rôle d'interrupteurs qui allument ou éteignent les gènes. L'identité d'une cellule, c'est la combinaison des gènes actifs qu'elle possède. De ce fait, les chercheurs soupçonnaient déjà que les facteurs de transcription jouaient un rôle dans l'orientation de la différentiation. Ils savaient aussi que les cellules du sang ne peuvent prospérer que dans un milieu contenant une cytokine particulière, sorte d'hormone spécifique à chaque type de cellule. Mais jusque-là, ils pensaient que les cytokines aidaient les cellules à survivre et à se multiplier sans influencer leur « destin ». L'équipe marseillaise vient de montrer qu'une cytokine particulière (M-CSF) met les cellules souches sur le « chemin myéloïde », mais que ces cellules souches suivent cette voie uniquement si la quantité d'un certain facteur de transcription (le facteur MafB) contenu dans les cellules est faible. Ces résultats permettent de résoudre une énigme qui a passionné les spécialistes depuis un demi-siècle. A terme, ces travaux pourraient apporter un nouvel éclairage sur les leucémies, où des cellules souches anormales restent « indécises » et échappent encore aux traitements. CNRS
|
|
|
|
|
|
|
|
Alternative prometteuse aux cellules souches issues de l'embryon, les cellules souches obtenues en reprogrammant des cellules différenciées ont encore besoin de prouver qu'elles ont les mêmes propriétés que les cellules souches embryonnaires (CSE), l'étalon-or dans ce domaine. Une preuve importante est apportée aujourd'hui par deux études publiées en ligne, l'une par la revue Nature, l'autre par la revue Cell Stem Cell. Deux équipes chinoises ont obtenu des souris vivantes à partir de cellules souches pluripotentes induites (CSPI). Pour cela, les deux équipes ont prélevé des cellules de fibroblaste (tissu conjonctif) sur des embryons de souris (à un stade avancé de développement). Ils ont ensuite appliqué la méthode développée en premier par le Japonais Yamanaka pour reprogrammer ces cellules et les ramener à un stade embryonnaire, stade auquel elles peuvent engendrer tous types de tissus de l'organisme. Ces cellules souches induites ont alors été implantées dans un embryon de souris dit tétraploïde : il s'agit d'un embryon -créé par les chercheurs- qui ne peut développer que les tissus qui entourent l'embryon (comme le placenta). C'est ainsi que les chercheurs testent les capacités des CSPI à donner naissance à toutes les cellules d'un organisme vivant. L'équipe qui publie dans Nature annonce 27 naissances de souris vivantes, avec un taux de succès de 3,5% (ils ont injectés des CSPI dans plus de 600 embryons tétraploïdes). Même si certaines souris souffrent d'anormalités, les chercheurs ont réussi à les faire se reproduire et disposent d'une seconde génération. L'autre équipe a obtenu une souris vivante pour deux naissances (taux de succès de 1,1%).Même si cette technique offre un nouveau moyen de cloner un animal, l'objectif de ces recherches est d'abord de montrer que ces cellules souches induites ont le même potentiel que les CSE. NO
|
|
|
|
|
|
|
|
A l'avenir, les cellules souches ne devront plus être directement injectées dans le coeur pour soigner les patients à la suite d'un infarctus. Des chercheurs allemands sont parvenus à les diriger par ultrasons à travers le corps. Leurs résultats ont fait l'objet d'une publication dans le "Journal of Molecular and Cellular Cardiology" du 21 juin 2009.Un des défis lancés par les cellules souches est celui des voies d'administration : comment amener les cellules à l'endroit précis où elles doivent agir ? Des médecins des universités de Bonn, de Münster et de l'école supérieure de sports de Cologne ont établi une méthode permettant de conduire des cellules souches injectées dans le sang jusqu'à la zone précise du coeur touchée par un infarctus. Cette méthode repose sur l'utilisation d'ultrasons. Les chercheurs ont injecté dans le sang de rats de petites bulles de gaz qui oscillent quand elles sont soumises à des impulsions d'ultrasons spécifiques. Le tissu environnant est alors irrité, il sécrète des médiateurs de l'inflammation qui attirent entre autres les cellules souches. Klaus Tiemann de l'Université de Münster confirme qu'une excitation ponctuelle des zones entourant la cicatrice de l'infarctus permet d'attirer les cellules souches sur ces zones précises. Selon l'étude, ce procédé permet d'augmenter de 40% le nombre de cellules souches présentes dans le coeur au bout d'une heure. Les cellules passent la paroi des vaisseaux sanguins et pénètrent dans le tissu touché. Avec cette méthode, elles pourraient alors améliorer la capacité cardiaque, réduire le risque de troubles du rythme cardiaque et réduire la cicatrice de l'infarctus. Cependant aucun de ces effets n'a encore été réellement constaté chez l'homme. BE
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l'Institut National des Sciences Agro-biologiques, dirigés par le docteur Chiyuki Takabayashi, est parvenue à créer des vaisseaux sanguins artificiels à partir de cocons de vers à soie génétiquement modifiés. Les vers à soie utilisés par les chercheurs sont dotés d'un transgène leur permettant de tisser des fils capables de produire des fibroblastes 1]. Ces fils subissent un traitement particulier : tout d'abord, la séricine (protéine naturelle de la soie), qui pose des problèmes de biocompatibilité, en est extraite, puis ils sont mis à tremper dans une solution de fibroïne puis dans de l'éthanol. Ensuite, ils sont tressés et enroulés pour former des tubes. Lorsque ces tubes sont greffés à des vaisseaux sanguins, des cellules vasculaires prolifèrent sur les fibroblastes situés sur leurs parois interne et externe. La technologie présente plusieurs avantages. En premier lieu, les tubes obtenus sont fins, leur diamètre interne étant d'environ 1 mm soit quatre fois moins que pour les vaisseaux sanguins artificiels que l'on utilise actuellement. De plus, une fois la greffe effectuée, les fibres de soie se dissolvent progressivement ; les cellules qui ont proliféré autour des tubes fusionnent, formant des vaisseaux identiques à ceux de l'organisme. Enfin, le taux de perméabilité des tubes (probabilité qu'ils restent ouverts) est plus élevé que celui des vaisseaux en polytetrafluoroéthylène. Les premiers tests sur des petits mammifères - des souris et des lapins - se sont montrés prometteurs. Les chercheurs vont maintenant expérimenter sur des porcs, tout en commençant en parallèle à réfléchir à la commercialisation de la technologie. [BE
|
|
|
|
|
|
|
|
Une équipe japonaise a testé l'implantation d'un nouveau matériau ultra-purifié de gel d'alginate et de cellules stromales de la moelle osseuse dans un modèle canin, et évalué ce même matériau sur des cadavres. Après création d'une lésion ostéochondrale de 5 mm de diamètre dans la rotule, la lésion est comblée soit avec le support seul (alginate), soit avec le support et les cellules, soit n'est pas comblée. L'aspect macroscopique après 16 semaines montre un cartilage blanc et lisse dans le groupe matériau + cellules, alors que chez les contrôles non comblés, il est rugueux et incurvé. Les scores histologiques sont significativement meilleurs dans le groupe alginate + cellules que dans le groupe contrôle. Le groupe alginate seul montre une réparation avec du fibro-cartilage, alors que le groupe avec cellules montre un cartilage hyalin normal riche en GAG. Enfin, dans ce groupe, la reconstruction de l'os souschondral est stimulée. Ces résultats témoignent donc d'une réparation normale du cartilage après implantation de cet allographe chez le chien, permettant d'espérer des résultats identiques chez l'homme. De plus, la technique injectable d'implantation a été testée sur des genoux humains de cadavres et s'est avérée très prometteuse. JIM:
|
|
|
|
|
|
|
|
Le Xeloda associé à l'oxaliplatine est efficace contre le cancer du côlon au stade précoce. Le critère d'évaluation primaire d'une étude de phase III a été atteint avec le constat qu'il y a une augmentation de la survie sans maladie par rapport aux résultats obtenus avec un protocole chimiothérapique courant. William M. Burns, CEO de la division Pharma de Roche, est cité dans le communiqué dans ces termes: "Alors que Xeloda est déjà approuvé en monothérapie lors de cancer du côlon au stade précoce, les résultats de cette étude signifient que les médecins pourront désormais aussi le proposer dans le cadre d'une chimiothérapie combinée. Il s'agit là d'un progrès important pour les patients car, traité suffisamment tôt, le cancer du côlon peut être guéri, ce qui souligne - si besoin était - la nécessité pour les soignants de disposer d'un large éventail d'options thérapeutiques". L'étude internationale de phase III NO16968 porte sur la prise orale de Xeloda associée à l'administration intraveineuse d'oxaliplatine (XELOX) immédiatement après intervention chirurgicale chez des patients souffrant de cancer du côlon. Les données prouvent que XELOX est supérieur à l'association 5-FU/LV (5-fluorouracil/leucovorine par voie intraveineuse) en termes de durée de vie sans détection possible de l'affection cancéreuse, communique Roche lundi. L'étude, conduite chez des patients opérés pour cancer du côlon et non encore traités, a porté sur l'utilisation de XELOX pendant 24 semaines. Les patients du groupe XELOX ont témoigné d'une survie sans maladie significativement meilleure que les patients du groupe 5-FU/LV. Le cancer colo-rectal est la deuxième cause de décès par cancer chez l'homme et la femme en Europe, et le troisième type de cancer le plus souvent signalé dans le monde, avec près d'un million de nouveaux cas chaque année. Cédé sous licence et commercialisé par Roche dans plus de 100 pays, Xeloda peut se prévaloir de plus de dix ans d'expérience clinique avérée. Il est homologué pour le cancer colo-rectal métastatique, le cancer du sein métastatique, le cancer du côlon (à titre de traitement adjuvant), le cancer de l'estomac évolué, le cancer du pancréas métastatique. Romandie
|
|
|
|
|
|
|
|
En avril 2009, la pollution atmosphérique avait été liée à une diminution du poids du bébé à la naissance. Aujourd'hui, une nouvelle étude américaine montre qu'elle aurait un impact négatif sur le développement du cerveau des foetus. A l'âge de 5 ans, les enfants présenteraient un quotient intellectuel (QI) plus faible. Réalisée sur des femmes enceintes puis sur leurs enfants, cette étude américaine a été faite en deux temps par l'équipe du Dr Frederica Perera, de la Columbia University de New York. Tout d'abord, des femmes enceintes vivant dans les quartiers pollués de New-York ont été suivies. Leur air environnent a pu être étudié grâce à des dispositifs d'analyses portables. Une fois né, chaque enfant a été suivi par des pédiatres jusqu'à un test final à l'âge de 5 ans pour calculer leur QI. Résultat : ceux dont la mère était dans un environnement plus pollué que les autres lors de leur gestation ont obtenu des résultats aux tests de QI inférieurs de 4 à 5 points. Il faut souligner qu'une différence de 4 ou 5 points dans un test de QI ne va pas entraîner de différence notable dans l'épanouissement de l'enfant. Il sera tout aussi capable de lire ou d'écrire. Néanmoins, ces résultats tendent à montrer que l'environnement au cours de la grossesse peut avoir une influence sur le développement du cerveau de l'enfant. Doctissimo
|
|
|
|
|
|
|
|
La réparation du système nerveux central et la restauration d'une activité motrice volontaire grâce à la repousse des axones ont longtemps été considérées comme impossibles chez les mammifères. Au cours de la dernière décennie, de nombreuses tentatives ont été dans l'ensemble décevantes. L'équipe Inserm dirigée par Alain Privat a montré récemment qu'un élément essentiel freinant cette régénération était dû à l'activité des astrocytes, ces cellules nourricières qui entourent les neurones. En temps normal, les astrocytes ont pour rôle principal d'apporter les éléments nutritifs nécessaires au bon fonctionnement des neurones. En cas de traumatisme ou de lésion de la moelle épinière, ils synthétisent deux protéines particulières (la GFAP - Glial Fribillary Acidic Protein - et la Vimentin) qui isolent le neurone endommagé afin de ne pas perturber le bon fonctionnement du système nerveux central. Si cette protection est utile dans un premier temps, elle engendre à long terme la formation d'un tissu cicatriciel imperméable autour du neurone. Cette « cicatrice » constitue une sorte de grillage impénétrable hostile à la régénération axonale et donc à la propagation de l'influx nerveux. En cas de traumatisme important, ces cicatrices engendrent la paralysie motrice. Fort de ces premières observations, la stratégie poursuivie par les chercheurs a donc été de mettre au point un outil thérapeutique capable de bloquer la formation de ce tissu cicatriciel. Pour cela, ils ont utilisé une technique de thérapie génique basée sur l'utilisation des ARN (2) interférents. Ces petites séquences d'ARN fabriquées sur mesure ont été, à l'aide d'un vecteur thérapeutique viral, introduites dans le cytoplasme d'astrocytes mis en culture. Une fois dans la cellule, elles activent des mécanismes qui bloquent la synthèse des deux protéines secrétées par les astrocytes et responsables de la formation de la cicatrice. Grâce à cette technique, les chercheurs ont réussi à contrôler la réaction des astrocytes, et quand ceux-ci sont cultivés avec des neurones, à favoriser leur survie et à déclencher la repousse axonale. Inserm
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|