|
|
|
|
|
NUMERO 444 |
|
|
|
|
|
|
|
Edition du 13 Septembre 2007
|
|
|
|
|
Edito
Conférence de Vienne sur le réchauffement climatique : un tournant dans la lutte contre les émissions de gaz à effet ?
Les pays industrialisés ont décidé, non sans mal, le 31-08-2007, d'envisager une réduction drastique des émissions de gaz à effet de serre d'ici à 2020, afin de progresser vers la définition d'un pacte de lutte à long terme contre le réchauffement climatique. Un millier de délégués des 158 pays représentés aux discussions organisées à Vienne sous l'égide de l'Onu du 27 au 31 août ont évoqué pour 2020 une réduction des émissions d'entre 25 % et 40 % par rapport à leurs niveaux de 1990. Cet objectif, bien que pour l'instant non contraignant, constitue un tournant dans la volonté de la communauté internationale de prendre à bras le corps le défi du réchauffement climatique. Il servira de base de départ aux travaux devant aboutir à un nouveau pacte sur le climat à l'expiration du protocole de Kyoto en 2012. Les délégués ont déclaré en conclusion de leurs travaux que cette fourchette de 25-40 % "fournit des critères préliminaires utiles pour le degré général d'ambition en ce qui concerne des réductions supplémentaires des émissions". L'accord de principe trouvé à Vienne a été conclu en toute fin de conférence alors que, quelques heures auparavant, le Canada, le Japon, la Nouvelle-Zélande, la Russie et la Suisse semblaient encore s'opposer aux objectifs proposés. "Nous sommes parvenus à un large accord sur les principaux sujets", a souligné le négociateur de la Grenade, Leon Charles, l'un des organisateurs de la conférence de Vienne. Les objectifs définis pour 2020 ne sont pas contraignants, mais ils sont destinés à montrer la bonne volonté des pays industrialisés dans le domaine de la réduction des émissions et à lancer un signal fort en direction des pays en voie de développement. Yvo de Boer, secrétaire exécutif de la CCNUCC, a d'ailleurs souligné que cet accord devait également montrer la voie aux pays en développement. "Même si les pays industrialisés font cela (se conforment à ces objectifs, NDLR), ce ne sera qu'une contribution à l'effort global", a déclaré le responsable onusien aux journalistes après l'annonce de l'accord. Lors des négociations, l'Union européenne avait fait pression en faveur de l'objectif envisagé de baisse des GES d'ici 2020. Les Vingt-Sept se sont déjà engagés à réduire leurs émissions de 20 % à cette date. L'Union européenne et les pays en développement souhaitaient une formulation plus ambitieuse. Les ministres de l'Ecologie des pays concernés doivent se retrouver en décembre à Bali (Indonésie) pour lancer officiellement des négociations sur un nouveau traité de lutte contre le réchauffement climatique, attendu avant fin 2009. Cette année, le Groupe intergouvernemental d'experts sur l'évolution du climat, constitué de plusieurs centaines de scientifiques réunis sous l'égide de l'ONU, a publié trois rapports pour souligner la nécessité pour l'humanité d'agir rapidement contre le réchauffement climatique et a esquissé des solutions. Selon les travaux synthétisés par le Groupe international d'experts sur le climat (GIEC), 89 % des changements climatiques observés corroborent la thèse d'un réchauffement mondial, notamment le blanchiment des récifs coralliens, les inondations de régions côtières, l'alourdissement du traitement de certaines maladies, les décès liés à la chaleur et les risques d'extinction d'espèces animales et végétales. Le niveau des mers devrait quant à lui s'élever de 18 à 59 centimètres mais continuera vraisemblablement à augmenter durant plusieurs siècles, même si les émissions de gaz à effet de serre se stabilisent. En effet, la chaleur des eaux proches de la surface continuera à se diffuser aux couches profondes, qui se dilateront à mesure que leur température augmentera. À cause de ce seul phénomène, le niveau des mers pourrait monter de 40 centimètres à 3,70 mètres au cours des prochains siècles, cette estimation ne tenant pas compte de la fonte des glaciers et des banquises polaires. Le GIEC souligne que le dépassement du seuil des 550 ppm de CO2 dans l'atmosphère terrestre risque de précipiter un «changement climatique catastrophique». De nouvelles études indiquent même qu'au-delà de ce seuil, le contrôle du climat planétaire pourrait s'avérer impossible en raison d'un phénomène d'emballement des grands facteurs qui stabilisent actuellement le climat. La proposition de limiter les émissions terrestres à 450 ppm fait partie de celles qui atterriront sur la table des délégués de la conférence de Bali, en Indonésie, en décembre. Ces pourparlers lanceront les négociations sur les réductions de GES applicables à la deuxième phase du protocole de Kyoto (2012-20). L'UNCC a estimé dans un rapport qu'environ 150 milliards d'euros d'investissements (de 03 à 05 % du produit mondial brut) seront nécessaires d'ici à 2030 pour maintenir à leur niveau actuel les émissions de gaz à effet de serre. « L'efficacité énergétique est le moyen le plus prometteur pour réduire les émissions de gaz à effet de serre à court terme » et ralentir le réchauffement climatique a déclaré Yvo de Boer, le directeur du Secrétariat des Nations Unies pour le Réchauffement Climatique, en présentant le rapport lors du meeting de Vienne. L'efficacité énergétique impliquerait des standards plus durs en terme d'utilisation d'énergies fossiles pour les voitures, les usines, les centrales électriques au charbon ou les bâtiments. Ces investissements devraient permettre de stabiliser les émissions de gaz à effet de serre, sans pour autant parvenir à les réduire. Selon l'UNFCCC, il faudrait non seulement accélérer les investissements réalisés dans les énergies renouvelables, mais également améliorer l'efficacité énergétique des transports, de l'industrie et de la construction, et développer l'exploitation durable des forêts. En France, une enquête très révélatrice sur l'énergie a été réalisée en janvier 2007 par le Credoc (Centre de recherche pour l'étude et l'observation des conditions de vie), à la demande de l'Observatoire de l'énergie (OE). Parmi les 2.009 personnes interrogées, 56 % des Français pensent qu'il faudrait changer nos modes de vie pour limiter l'effet de serre. Un programme d'actions couvrant les transports, les activités industrielles et les choix énergétiques leur paraît indispensable. On voit donc que l'opinion publique a pris conscience de la nécessité d'une véritable mutation de société intégrant non seulement de nouveaux choix énergétiques mais également de nouveaux modes de production et de consommation des biens et services intrinsèquement respectueux de l'environnement. Il reste à présent aux responsables politiques à entendre le message qu'expriment avec force et clarté les citoyens et à prendre des initiatives fortes et audacieuses qui soient enfin à la hauteur du défi de civilisation qui nous attend. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Lire au tableau devient facile pour des enfants malvoyants grâce à la technologie numérique. A l'école spécialisée du Château, à Nice, neuf élèves handicapés par une vision inférieure à 3/10e après correction sont équipés, pour la deuxième année consécutive, d'un ordinateur portable doté d'un logiciel d'aide à la vision, spécialement conçu pour la lecture de documents éloignés. Concrètement, l'ordinateur est relié à une caméra de bonne qualité, qui filme le tableau sur lequel écrit l'enseignant. Le logiciel Portanum zoome le texte et lui applique des traitements d'image pour l'adapter à la vision des enfants (fausses couleurs, amélioration du contraste, de la luminosité...). Cette innovation a été concrétisée à l'initiative de l'Association des parents d'enfants déficients visuels (Apedv) des Alpes-Maritimes avec le concours de Thales et d'IBM, qui ont fourni gratuitement les logiciels et les ordinateurs. "Grâce à cette technologie, l'intégration de nos élèves malvoyants au collège puis au lycée va être facilitée", prévoit le directeur de l'école, Lionel Edouard. L'Apedv tente de monter à Nice une filière Portanum du collège à l'université. Le logiciel est téléchargeable gratuitement sur portanum.
|
|
|
|
|
Le billet d'avion électronique est entré dans les moeurs. Depuis la fin du mois de juin, Air France a fait un pas supplémentaire vers la dématérialisation et propose à ses passagers de vols court et moyen-courriers de s'enregistrer directement avec leur téléphone mobile. A compter de 30 heures avant le départ du vol, ils peuvent enregistrer leurs bagages, indiquer leur préférence (couloir ou hublot) et obtiennent leur numéro de siège. Ce service gratuit devrait être disponible sur tous les vols de la compagnie d'ici à la fin de l'année. Reste que la dématérialisation n'est pas totale. Le client doit encore imprimer une carte d'embarquement sur une borne libre service située dans les aéroports. Mais Air France travaille à une carte d'embarquement sur téléphone mobile. « C'est techniquement possible, mais nous devons encore convaincre les autorités aéroportuaires de la validité d'un code-barres comme carte d'embarquement », explique-t-on au sein de la compagnie aérienne. OINet
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs de l'Université californienne de Santa Barbara mettent leur grain de sel dans la course technologique à la vitesse de l'information. L'équipe de John Bowers et de Brian Koch a annoncé dans l'édition du lundi 3 septembre d'"Optic Express", avoir réussi une première mondiale : la mise au point d'un émetteur laser en silicone intégré à une puce et capable de délivrer des impulsions stables et ultra-rapides (jusqu'à 40 milliards d'impulsions par secondes). Ce laser devrait permettre la transmission ultra rapide de données. Basiquement, les impulsions de laser, régulièrement espacées, se déclinent en plusieurs longueurs d'onde. Analysées séparément, ces impulsions sont censées transmettre une large gamme d'informations, permettant à un seul laser de faire le travail de plusieurs centaines d'autres. L'autre gros intérêt, souligné par les chercheurs, est que l'émetteur est construit en silicone à l'aide de technologies déjà existantes, réduisant ainsi son coût de production, et autorisant une fabrication à grande échelle et à faible coût. RT
|
|
|
|
|
|
|
|
Les algues pourraient devenir une source importante de biomasse et de biocarburant. Le programme Rotterdam Climate Initiative, dont font partie la municipalité et le port de Rotterdam notamment, a réuni récemment des spécialistes de l'énergie et de l'industrie des algues à Rotterdam, pour discuter du rôle des algues dans la production d'énergie durable. Les algues n'ont besoin que de lumière du soleil, de CO2 et d'eau avec des oligo-éléments, du phosphate et de l'azote, pour se développer. Les variétés d'algues les plus adaptées pour la production de biocarburant sont les algues vertes unicellulaires, micro-organismes primitifs situés en dessous des plantes. On peut utiliser 99 % de leur masse pour fabriquer des médicaments, des matières colorantes, des plastiques biologiques ou des biocarburants. Environ 40.000 litres de biocarburant par hectare peuvent être produits chaque année, ce qui représente un rendement important. Les algues sont surtout cultivées dans des systèmes d'étangs ouverts. Un photobioréacteur qui permettra de contrôler précisément certains paramètres est actuellement expérimenté pour une culture en système fermé. Mais la grande quantité de verre nécessaire pour une culture en batch empêche la production à l'échelle industrielle. La culture des algues a l'avantage de produire de l'énergie durable sans concurrencer l'agriculture. En effet, les bassins ou les réacteurs sont placés en mer ou dans les villes BE
|
|
|
|
|
|
|
|
Le lancement des travaux de construction d'une tour solaire thermoélectrique de recherche unique en son genre a été inauguré à Jülich le 31 août 2007 par le secrétaire d'Etat parlementaire au Ministère de l'environnement, Michael Müller (SPD). Elément clef de cette centrale électrique innovante, le récepteur solaire a été développé et breveté par le centre de recherche aérospatiale allemand (DLR). Cette installation de recherche et de démonstration doit servir de base pour le développement d'une technologie d'avenir : "La technologie innovante qui doit être testée ici à Jülich, est unique au monde. Son développement doit servir à des applications dans les pays du sud à fort ensoleillement. C'est ainsi que l'on consolidera l'avance allemande dans la production thermoélectrique solaire", a déclaré le secrétaire d'Etat Couvrant une surface au sol d'environ 16 ha (l'équivalent de 3 terrains de football) et totalisant une surface réfléchissante de près de 20.000 mètres carrés, l'installation expérimentale se présente sous la forme de 2.500 héliostats qui renvoient et concentrent le rayonnement solaire sur un récepteur de 22 mètres carrés placé au sommet d'une tour de 50 mètres de haut. Ce récepteur est constitué d'éléments céramiques poreux. En circulant à travers ces éléments céramiques, l'air environnant se réchauffe jusqu'à atteindre une température d'environ 700°C. Cette chaleur est ensuite transférée à une chaudière de récupération, où l'eau qu'elle contient est alors transformée en vapeur. Cette vapeur actionne une turbine, convertissant ainsi l'énergie thermique en courant électrique. En fonctionnement nominal, la centrale fournira une puissance de 1,5MWe. Un accumulateur de chaleur servira à palier aux aléas du rayonnement solaire (lors du passage de nuages) pour assurer une production d'électricité moins fluctuante. Au total, 1.000MWhe devraient ainsi être produits chaque année et injectés sur le réseau électrique. La mise en service est prévue pour la fin 2008, suivie de deux ans de fonctionnement expérimental. A la fin du projet, la tour continuera à être exploitée pour la production d'électricité solaire. BE
|
|
|
|
|
|
|
|
La découverte promet d'aider les éoliennes ou les centrales solaires à s'affranchir des caprices de la météo. Une équipe d'ingénieurs australiens de l'université de Nouvelle-Galles du Sud, à Sydney, a trouvé le moyen de stocker l'électricité dans des cuves, sous forme liquide. La centrale éolienne de King Island, une île du sud de l'Australie, expérimente ainsi depuis 2003 un accumulateur à circulation qui emmagasine l'excédent d'électricité produit lorsque le vent souffle fort pour le restituer lorsqu'il faiblit. Ce système pourrait lever l'un des obstacles qui freinent le développement des énergies renouvelables, en leur permettant d'alimenter le réseau en l'absence de vent ou de soleil. A King Island, le générateur thermique qui prend le relais des éoliennes quand il n'y a pas de vent a vu sa consommation de fioul diminuer de moitié. "Le principe de ces batteries est connu depuis longtemps, mais personne n'était parvenu à le mener au stade de la commercialisation", dit Maria Skyllas-Kazacos, l'ingénieur chimiste qui dirige depuis vingt ans les recherches de l'université de Nouvelle-Galles du Sud sur ces accumulateurs. Contrairement aux batteries classiques au plomb, ces derniers utilisent des électrolytes (liquides dans lesquels baignent les plaques de l'accumulateur) qui ne sont pas stockés à l'intérieur, mais dans deux réservoirs externes. C'est leur mise en contact, dans une cuve centrale, qui produit de l'électricité. Pour la recharge, l'apport de courant provenant des éoliennes assure la séparation des deux électrolytes, qui sont à nouveau stockés dans leurs réservoirs. L'avantage du système à circulation sur les batteries classiques réside dans sa capacité à fournir aussi bien un kilowattheure que plusieurs centaines de mégawattheures. L'accumulateur de King Island peut ainsi restituer 200 kilowatts d'électricité pendant quatre heures. "Théoriquement, les capacités de stockage sont illimitées : il suffit d'augmenter la capacité des cuves d'électrolytes", confirme Mme Skyllas-Kazacos. Les quatre réservoirs de King Island contiennent 55 000 litres. Pour gagner de la place, il est possible de les entreposer sous terre. Une poignée de centrales éoliennes testent déjà le système, sur l'île japonaise d'Hokkaido ou encore aux Etats-Unis. LM
|
|
|
|
|
Les architectes David Marks et Julia Barfield connus pour la construction de London Eye (grande roue de 135 m de haut installée en 2000 en face de Westminster) proposent la mise en place de plusieurs milliers de groupes d'éoliennes dans la capitale britannique d'ici les Jeux Olympiques de 2012. Ils ont présenté un nouveau concept d'éoliennes à axe vertical avec trois pales de forme hélicoïdale disposées par groupes de cinq en haut d'un mat, le Beacon. Cette configuration pourrait permettre de maximiser la puissance électrique générée par les eoliennes malgre les conditions de fonctionnement particulièrement contraignantes des zones urbaines. Un tel projet s'inscrirait idéalement dans la politique de décentralisation partielle de la production d'énergie du gouvernement britannique. BE
|
|
|
|
|
|
|
|
De l'eau, de l'aluminium, du gallium : c'est le cocktail énergétique concocté par une équipe de chercheurs américains de l'université Purdue de West Lafayette (Indiana). Ses inventeurs en ont détaillé la recette devant la deuxième Conférence internationale sur l'énergie et les nanotechnologies, qui s'est tenue du 5 au 7 septembre à Santa Clara (Californie). Pour la petite histoire, l'un d'eux, Jerry Woodall, aurait découvert par hasard, en 1967, alors qu'il travaillait dans l'industrie des semi-conducteurs et qu'il lavait à l'eau un creuset contenant un alliage liquide d'aluminium et de gallium, que se produisait alors un dégagement d'hydrogène. L'idée a lentement fait son chemin, le temps de rencontrer une donne économique mondiale favorable à la recherche de solutions alternatives aux énergies fossiles. Un brevet a été déposé. Et une start-up, AlGalCo, créée pour commercialiser le procédé. L'industrie automobile pourrait être intéressée. Tous les grands constructeurs cherchent, en effet, à développer des moteurs utilisant l'hydrogène, soit comme carburant, soit pour alimenter une pile à combustible qui, sur le principe d'une électrolyse inversée, produit de l'électricité à partir de l'oxygène de l'air et d'hydrogène. Problème : ce dernier gaz, fortement explosif, est difficile à stocker. De plus, sa production, généralement par vapocraquage d'hydrocarbures (un procédé qui consiste à casser des molécules), relâche du CO2. Ces inconvénients pourraient être écartés par un système embarqué de production à la demande, à la fois propre et sûr. La réaction d'oxydation de l'aluminium au contact de l'eau est connue : l'oxygène de l'eau se combine avec le métal pour former de l'oxyde d'aluminium, ou alumine, et l'hydrogène est libéré. La nouveauté consiste, ici, à utiliser un mélange liquide d'aluminium et de gallium, qui améliore la réaction chimique. Le gallium, métal que l'on trouve à l'état de traces dans les minerais de bauxite et de zinc, a le désavantage d'être onéreux. L'équipe de Jerry Woodall, qui utilisait au départ un alliage composé à 72 % de gallium, a réussi à mettre au point un mélange où ce métal n'entre plus que pour 20 %. De surcroît, le gallium, qui n'a pas besoin pour cette réaction d'être aussi pur que celui entrant dans la fabrication des composants électroniques, peut être totalement réutilisé. Quant à l'alumine, elle peut être recyclée en aluminium. Les chercheurs estiment que ce procédé pourrait permettre d'obtenir à terme un carburant qui serait "compétitif avec l'essence". A condition, toutefois, que soit mise en place une filière industrielle complète. Aux côtés de l'automobile, le chauffage domestique pourrait aussi constituer un débouché. Il existe suffisamment d'aluminium aux Etats-Unis pour satisfaire tous les besoins en électricité pendant trente-cinq ans, ont calculé les scientifiques. Et suffisamment de réserves de gallium connues pour faire rouler un milliard de voitures. LM
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Le Japon prépare le lancement d'une mission ambitieuse, celle de la première sonde lunaire nippone qui doit se mettre en orbite autour du satellite naturel de la Terre. La mission SELENE, baptisée Kaguya d'après le nom d'une princesse d'une ancienne légende japonaise, doit être lancée vendredi 14 septembre, à 01h31 GMT, par une fusée H-2A depuis l'île de Tanegashima. Le lancement a déjà été reporté plusieurs fois, pour des raisons techniques ou météorologiques. Dans son ensemble, la réalisation du projet a pris quatre ans de retard. Avec la sonde SELENE (Selenological and Engineering Explorer), le Japon espère sortir d'une mauvaise passe et relancer sa politique d'exploration spatiale, alors qu'il est durement concurrencé par la Chine et talonné par l'Inde. La mission SELENE/Kaguya se compose d'un vaisseau-mère et de deux petits satellites (Relay et VRAD). L'orbiteur principal doit se placer sur une orbite circulaire passant au-dessus des pôles, à 100 kilomètres d'altitude. Les deux petits satellites tourneront sur une orbite elliptique à 2.400 km d'altitude. L'objectif scientifique est de mieux comprendre les origines et l'évolution de la Lune, précise la JAXA, l'agence japonaise pour l'exploration spatiale. Ces dernières années, les projets spatiaux du Japon ont été ralentis par plusieurs échecs : les lancements ratés de ses fusées H-2 et H-2A au début des années 2000, l'échec de la mission martienne Nozomi en 2003, les problèmes techniques d'Hayabusa l'année dernière, qui devait ramener des échantillons d'astéroïdes sur Terre, enfin l'abandon récent de la mission lunaire Lunar-A. NO
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Après la Banque mondiale, le 29 mai, c'est au tour de l'Organisation de coopération et de développement économiques (OCDE) de s'inquiéter de la vogue des agrocarburants destinés à limiter les émissions de gaz à effet de serre dans le domaine des transports. Dans un rapport discuté le 11 septembre à l'occasion d'une "table ronde sur le développement durable", Richard Doornbosch et Ronald Steenblik, supervisés par Brice Lalonde, ancien ministre français de l'environnement, se demandent si"le remède n'est pas pire que le mal". Faire passer de 1 % à 11 % la part d'agrocarburants dans la consommation totale de carburants d'ici à 2050 n'ira pas sans bouleversements majeurs. "En théorie, écrivent les auteurs, il y a assez de terres sur le globe pour nourrir une population en expansion tout en produisant suffisamment de biomasse." Mais "la transformation des terres pour la production d'énergie à partir de la biomasse poussera les prix alimentaires vers le haut". L'OCDE s'attend à une progression de 20 % à 50 % au cours de la prochaine décade. Le bilan n'est pas fameux non plus en termes environnementaux, souligne le rapport, car la tentation sera grande "de remplacer les écosystèmes, comme les forêts, les zones humides et les pâturages par des cultures destinées aux agrocarburants". A ceux qui font valoir que les réductions de gaz à effet de serre peuvent être réduites de 40 % par l'emploi d'agrocarburants à la place de l'essence classique, il est répondu que l'éthanol et le biodiesel peuvent se révéler plus dommageables, si l'on prend en compte l'acidification des sols qui en résultera, l'usage des engrais et des pesticides et les atteintes à la biodiversité. Le rapport conclut que "la capacité des agrocarburants à couvrir une part importante des besoins énergétiques des transports sans nuire aux prix alimentaires ou à l'environnement est très limitée". Pas d'agrocarburants sans subventions. Les Etats-Unis consacrent 7 milliards de dollars (5 milliards d'euros) par an aux agrocarburants, et il leur en coûte environ 500 dollars pour empêcher par l'emploi d'éthanol à base de maïs l'émission d'une tonne de gaz carbonique. "Il existe un sérieux risque que la demande excède l'offre soutenable, ce qui inciterait fortement à tricher", souligne le rapport de l'OCDE. Celui-ci propose que l'Agence internationale de l'énergie (AIE), l'OCDE, l'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO) et la Banque mondiale poursuivent leurs études en commun, afin de mieux évaluer les conséquences de technologies actuelles et futures de production de biocarburants. LM
|
|
|
|
|
|
|
|
Selon un nouveau rapport, le secteur en pleine expansion des cellules photovoltaïques pourrait couvrir jusqu'à 20 % de la totalité des besoins énergétiques des Etats-Unis. Le cabinet d'analyses NanoMarkets voit les technologies photovoltaïques en couche mince comme le secteur le plus prometteur, avec une production qui passera, selon les estimations, de 5 % aujourd'hui à 35 % d'ici 2015. "Face à une augmentation rapide des prix énergétiques dans le monde et à une chute des prix des technologies photovoltaïques, le secteur parviendra à se tailler une large part du marché énergétique pour couvrir à terme jusqu'à 20 % des besoins énergétiques du marché américain US", explique Robert Nolan, analyste chez NanoMarkets. "Les coûts des technologies photovoltaïques en couche mince étant inférieurs à ceux des technologies photovoltaïques traditionnelles, elles devraient amorcer leur décollage plus rapidement. Les technologies photovoltaïques offrent également des niveaux de prix prévisibles que ne garantissent pas les combustibles fossiles." Selon les analystes, le marché global des technologies photovoltaïques en couche mince pèsera 7,2 milliards de dollars d'ici 2015, contre 1 milliard de dollars aujourd'hui. Ces technologies sont plus faciles à produire que les cellules photovoltaïques standard, car elles peuvent être imprimées à partir d'imprimantes adaptées et non produites sous la forme de puces d'ordinateur. Les fabricants tels que First Solar, Fuji Electric, Nanosolar, Sanyo, Uni-Solar et G24i ont d'ores et déjà entrepris la construction de grandes installations utilisant la technologie, avec une capacité de plus de 100 MW. La technologie en couche mince est très prometteuse car elle peut être imprimée sous forme de bandes flexibles pouvant être adaptées à la plupart des appareils et structures. Elle est également plus efficace que les cellules photovoltaïques simples en conditions de faible éclairage. VN
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les japonais de sexe masculin dont le régime alimentaire est riche en vitamine B6 et les japonaises qui consomment beaucoup de café ont moins de risques d'avoir un cancer du colon, d'après les résultats récemment communiqués par un groupe de chercheurs du "National Cancer Center, Research Center for Cancer Prevention and Screening". Ces résultats obtenus par le Pr. Shoichiro Tsugane et son équipe du "National Cancer Center" proviennent de l'analyse des données recueillies dans le cadre de l'enquête "Japan Public Health Center-based Prospective Study", un projet qui a suivi sur plusieurs années la santé et les habitudes de vie de près de 100.000 Japonais âgés de 40 à 60 ans au moment de leur entrée dans l'étude au début des années 90 et qui ont été suivis ensuite par des examens médicaux réguliers et des questionnaires détaillés, où on s'est intéressé particulièrement aux habitudes alimentaires et de vie des participants. Cette enquête a pour but de mettre en évidence les rapports entre régime alimentaire, activité physique et survenue de pathologies, notamment cancéreuses. Plusieurs articles basés sur cette étude ont déà été publiés ces dernières années par le Pr. Tsugane et son équipe de chercheurs du "National Cancer Center". Pour analyser l'effet bénéfique de la vitamine B6, les sujets de sexe masculin ont été divisés en 4 groupes basés sur la quantité de vitamine B6 consommée ; les résultats montrent que comparés au groupe ayant la plus faible consommation de vitamine B6, les trois autres groupes ont 30 à 40 % moins de risques d'avoir un cancer colorectal. Il est à noter que la prise de vitamine B6 n'aurait pas d'effet protecteur contre le cancer colorectal chez la femme. Dans un autre article, les chercheurs avaient déjà mis en évidence un effet protecteur de la consommation de café contre le cancer du foie (carcinome hépato-cellulaire), chez les japonais des deux sexes. BE
|
|
|
|
|
|
|
|
Le rôle des antioxydants dans la prévention et la lutte contre le cancer est encore un sujet fortement débattu chez les spécialistes. La consommation de ces antioxydants, comme les vitamines, est au coeur d'un important marché, bien que les études scientifiques sur leurs effets réels soient rarement concluantes. Mieux qu'une énième contribution à ce débat, les travaux de Ping Gao et ses collègues de l'Institut John Hopkins (USA) dévoilent un mécanisme d'action méconnu des antioxydants : ils freineraient la croissance des tumeurs lorsqu'elles manquent d'oxygène. On considère généralement que les antioxydants agissent contre le cancer en limitant les dégâts que les radicaux libres infligent à notre ADN. Lorsque les chercheurs de John Hopkins ont implanté des cellules cancéreuses humaines (cancer du sang ou du foie) à des souris, ils ont observé que la production de radicaux libres augmentait dans ces cellules. Donner des antioxydants à ces souris permettait de lutter contre la présence des radicaux libres. Cependant, même chez les souris qui n'avaient pas reçu de vitamine C ou d'acétylcystéine, l'ADN des cellules n'étaient pas plus endommagé que chez les autres. Gao et ses collègues ont donc cherché un autre mécanisme d'action. Ils ont découvert que les deux antioxydants réduisaient la quantité d'une protéine dans les cellules cancéreuses, la protéine HIF-1. Or celle-ci aide les cellules en manque d'oxygène à convertir quand même les sucres en énergie. HIF-1 permet ainsi aux tumeurs de construire de nouveaux vaisseaux sanguins pour aller chercher de l'oxygène. Pour fonctionner, la protéine HIF-1 a besoin de radicaux libres, expliquent les chercheurs. C'est là que les antioxydants ont un rôle à jouer : en diminuant la quantité de radicaux libres disponibles ils freinent l'activité de la protéine HIF-1 et ralentissent la progression des tumeurs.Les chercheurs, qui publient leurs travaux dans la revue Cancer Cell, espèrent que la connaissance de ce mécanisme permettra d'utiliser plus efficacement les antioxydants dans la lutte contre les cancers. NO
|
|
|
|
|
|
|
|
Une étape importante dans la mise au point de nanoparticules chargées d'agents radio thérapeutiques vient d'être franchie par des chercheurs de Rice University (Houston, TX) qui viennent de démontrer la possibilité de piéger des particules alpha dans des nanotubes de carbone ultracourts (20 à 50 nanomètres de long). Les nanotubes de carbone possèdent plusieurs propriétés intéressantes qui en font des objets bien adaptés pour être utilisés dans des applications au traitement du cancer : en particulier, leur surface peut être facilement modifiée chimiquement pour les rendre biocompatibles et peut être simultanément fonctionnalisée pour qu'ils puissent s'accrocher sélectivement à une espèce biochimique. L'intérêt d'utiliser des nanotubes ultracourts par rapport aux nanotubes de carbone classiques est de pénétrer plus facilement les parois cellulaires pour s'accumuler à l'intérieur des cellules. La préparation des nanotubes chargés radioactivement se fait par immersion de ces derniers dans une solution d'ions astature (At-) (élément fortement radioactif) afin d'en piéger une quantité importante à l'intérieur des nanotubes. Toutefois, les tests ont révélé que seulement 13,1% des ions At- restent piégés après cette opération. L'équipe de Rice a montré qu'on pouvait augmenter très substantiellement ce pourcentage, en oxydant dans une solution de chloramine-T les ions l'At- pour former le composé AtCl. Ils observent alors des taux de rétention après immersion supérieurs à 90%, qui sont attribués à un meilleur ancrage du composé à l'intérieur des nanotubes du fait des interactions de Van Der Vaals entre l'AtCl et les parois intérieures des nanotubes. Afin de mesurer le taux de rétention in vitro de ces composés radioactifs, les chercheurs ont immergé les nanotubes dans du sérum sanguin et dans un tampon phosphate salin (PBS). Les mesures ont révélé des taux de rétention respectifs de 85-93% de 72-85%, taux théoriquement suffisamment élevés pour détruire efficacement les cellules cancéreuses. A l'avenir, les chercheurs souhaitent tester l'efficacité des nanotubes radioactifs in vivo en attachant à leur surface des anticorps spécifiques qui permettront de cibler les tumeurs cancéreuses. BE
|
|
|
|
|
|
|
|
Lorsqu'un antigène est introduit pour la première fois dans l'organisme, la réponse immunitaire se développe après un temps de latence. Si l'exposition au même antigène se reproduit, la réponse immunitaire dite secondaire est rapide et considérablement amplifiée, et est bien plus efficace pour neutraliser et éliminer le pathogène. Lorsque des cellules B naïves, c'est à dire des lymphocytes B qui n'ont jamais rencontré d'antigène, sont exposées pour la première fois à l'antigène pour lequel leur récepteur est spécifique, elles se multiplent en cellules dont certaines se différencient en lymphocytes B "mémoire". Ces cellules qui stockent les informations relatives aux antigènes qui les ont activées, se multiplient beaucoup plus rapidement que les cellules naïves, permettant ainsi une réponse plus rapide et plus efficace lors d'une seconde infection. Des biologistes de l'Université de Sydney ont mis en évidence des gènes impliqués dans les mécanismes de la prolifération des cellules mémoires. Une étude par micropuces à ADN a démontré une intensité d'expression des gènes KLF (Krüppel-like factor) 4, KLF9 et PLZF (Promyelocytic Leukemia Zinc Finger) plus élevée dans les cellules naïves que dans les cellules mémoires. On observe une diminution de l'expression de ces gènes induite par l'activation de CD40 (antigène de différentiation). L'expression forcée de la KLF4, KLF9, et PLZF par les cellules B mémoires retarde la division cellulaire et diminue leur prolifération, leur conférant ainsi un comportement proche de celui des cellules B naïves.Lorsque l'organisme est exposé pour la première fois à une infection, ces gènes régulateurs freinent la prolifération des cellules B; lorsque l'infection se répète, ces gènes sont désactivés. BE
|
|
|
|
|
|
|
|
C'est une bombe à retardement qu'ont lancé à la fois l'Institut de veille sanitaire (InVS) et le Régime social des travailleurs indépendants. "La moitié des artisans retraités ont été exposés à l'amiante durant leur vie professionnelle", précise un communiqué. Depuis le lancement des deux programmes pilotes en septembre 2005 pour Espri (artisans) et Spirale (salariés), dans les Régions Aquitaine, Poitou-Charentes et Limousin, des milliers de retraités ayant cessé leur activité en 2004 ont été sollicités et leur carrière professionnelle a été reconstituée. La probabilité pour chacun d'entre eux d'avoir été exposé professionnellement à l'amiante a été analysée. Un questionnaire de 8 pages a été envoyé à chacun pour préciser le début et la fin de chaque type de tâches et professions exercées dans toutes les entreprises ou chantiers ainsi que les produits, matériaux et outils manipulés. Après quelques exemples pris en photo de joints, dalles de sol, faux plafonds, gants de protection ou garnitures de frein contenant de l'amiante, il est demandé au retraité s'il a porté des vêtements de protection contre la chaleur, remplacé des joints, meulé du fibrociment, remplacé des garnitures de frein et d'embrayage. La phase pilote a concerné 2.334 artisans (88 % d'hommes) avec une participation massive : 67% des artisans contactés ont renvoyé le questionnaire. Et un bilan médical sans avance de frais a été proposé aux 1.155 personnes pour lesquels une exposition à l'amiante était dépistée. 471 sujets ont accepté, et pour 78 personnes, il a effectivement été découvert une anomalie ou pathologie ayant un lien possible à l'amiante. En juin 2007, il a été décidé d'étendre le dispositif à compter de 2008 dans les régions Basse-Normandie, Haute-Normandie, Picardie et Nord-Pas-de-Calais. À terme, un programme national devrait être généralisé. Le rapport indique qu'il y a en France entre 11.000 et 23.000 nouveaux cancers professionnels en France chaque année. L'amiante induit 2.000 cancers du poumon, 500 à 600 cancers de la plèvre pulmonaire (mésothéliome), 600 à 1.100 cancers de la vessie par an. L'amiante reste donc de loin la première cause de cancers professionnels, survenant vingt à quarante ans après le début de l'exposition. On attend d'ici à 2020, plus de 20.000 décès par mésothéliome. Figaro
|
|
|
|
|
|
|
|
Les lymphocytes T CD8+ ou 'tueurs' font partie des globules blancs du sang. Ces cellules spécialisées de notre système immunitaire sont capables de nous protéger contre les infections car elles disposent de tout l'arsenal nécessaire à la destruction directe des cellules infectées. Les patients qui ne possèdent pas cette catégorie de lymphocytes développent des infections virales et bactériennes à répétition. Outre ces fonctions protectrices effectrices, ces lymphocytes sont aussi capables de porter une partie de la 'mémoire immunitaire', une propriété qui est mise en jeu lors de la vaccination. Les travaux de ces chercheurs de l'Inserm visent à mieux déterminer les caractéristiques de ces cellules et la façon dont elles nous protégent contre les infections. Pour étudier ces processus, ces chercheurs ont utilisé un modèle d'infection par la bactérie intracellulaire pathogène Listeria monocytogenes. En effet, des souris immunisées avec de faibles doses de cette bactérie l'éliminent rapidement et développent consécutivement à cette infection des lymphocytes T CD8 'mémoires' conservés au cours de la vie de l'animal. En s'appuyant sur ce système expérimental, les travaux de l'équipe dirigée par Grégoire Lauvau montrent que, contrairement au dogme établi, l'activité 'tueuse' des lymphocytes TCD8 mémoires n'est pas la seule à protéger contre une infection secondaire par ce même agent infectieux. Leur potentiel protecteur dépend aussi de leur capacité à sécréter une chimiokine proinflammatoire (CCL3) au cours de leur réactivation. Cette propriété fonctionnelle permet à la fois l'activation rapide des cellules de l'immunité innée (monocyte/macrophages et polynucléaires neutrophiles) et l'expression des fonctions effectrices microbicides nécessaires à la destruction de la bactérie. Ce résultat suggère qu'un autre agent pathogène pourrait être éliminé de manière 'nonspécifique' par les cellules de l'immunité innée à la suite de la réactivation des lymphocytes T CD8 mémoires anti-Listeria. Grégoire Lauvau et ses collaborateurs ont prouvé que c'était le cas. Des souris immunisées par la souche bactérienne Listeria monocytogenes sont capables d'éliminer un autre parasite intracellulaire (Leishmania major) avec une efficacité 10 000 fois supérieure lorsque leurs lymphocytes T CD8 mémoires anti-Listeria sont réactivés. Ces résultats, qui font actuellement l'objet d'un dépôt de brevet, sont potentiellement très intéressants sur le plan clinique. Ils permettent d'envisager le développement d'une stratégie de vaccination contre des agents infectieux différents de l'agent vaccinant. Cela pourrait notamment s'appliquer aux personnes infectées par des souches de bactéries résistantes aux traitements antibiotiques classiques (infection à staphylocoques par exemple) et contre lesquels aucun traitement n'est actuellement disponible Inserm
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|