|
|
Edito
Un débat majeur va devoir s’ouvrir : Que va faire la France avec les Gaz de Schiste et les hydrates de méthane ?
L'humanité produit actuellement environ 12,5 milliards de tep (Tonnes Equivalent Pétrole) par an, pour une consommation annuelle de l'ordre de 9 milliards de tep, soit deux fois plus qu'en 1973 et cinq fois plus qu'en 1950. En 2010, la consommation d'énergie mondiale a progressé de 5,5 % et les pays émergents contribuent pour les 2/3 à cette augmentation. L'Inde et la Chine représentent à elles seules 40 % de la croissance de la consommation énergétique mondiale et la Chine est devenue le premier consommateur mondial d'énergies en 2010. A ce rythme, et si l'on tient compte à la fois du développement économique en Asie et de l'augmentation de la population mondiale, la consommation mondiale d'énergie pourrait atteindre, selon les prévisions de l'AIE (Agence Internationale de l’Energie), au moins 22 milliards de tep en 2050, presque 2,5 tonnes d'équivalent-pétrole par terrien !
Les réserves énergétiques mondiales - conventionnelles et prouvées d'énergies non renouvelables (fossiles et uranium) sont estimées par l'AIE à environ 965 milliards de tonnes équivalent pétrole, ce qui représente 85 ans de production actuelle. Il faut souligner que cette durée varie sensiblement selon le type d'énergie : 180 ans pour le charbon, 65 ans pour le gaz et 45 ans pour le pétrole conventionnel ; 80 % de cette production énergétique mondiale est assurée par les énergies fossiles et le solde provient du nucléaire et de l'ensemble des énergies renouvelables (biomasse, hydraulique, agrocarburants, éolien et solaire).
Le monde consomme plus de 4,3 milliards de tonnes de pétrole par an (87 millions de barils/jour en 2010) et, même en imaginant une hypothétique stabilisation de la consommation annuelle de pétrole à 6 milliards de tonnes à l'horizon 2030 et en tenant compte des réserves totales de pétrole non-conventionnelles, nous aurons très probablement épuisé la totalité des réserves pétrolières de la planète d'ici la fin de ce siècle. Mais, compte tenu de la fulgurante croissance de l'Asie, le pétrole va devenir de plus en plus coûteux car de plus en plus difficile à extraire. En effet, l'essentiel des réserves "faciles" sera consommé d'ici 25 ans. Le prix du baril a plus que doublé en 8 ans, passant de 46 dollars à 106 dollars et ce n'est qu'un début !
Selon le rapport de prospective publié en mars 2011 par la banque HSBC, dans 49 ans, il pourrait ne plus rester de pétrole exploitable sur Terre, même si la demande n’augmente pas. Selon cette étude, "la pression sur les carburants fossiles pourrait être à la fois persistante et douloureuse, tant les prix du pétrole sont sensibles à tout déséquilibre mineur entre demande et offre d’énergie”. L’Europe, faute de disposer de sources d’énergie suffisantes, devrait être “la grande perdante”, selon le rapport qui souligne en outre que le risque de pénurie existe, “même si la demande n’augmente pas”.
L’Agence internationale de l’énergie prévoit pour sa part une demande mondiale de 99 Mb/j en 2035, dans son scénario médian. Son scénario ‘’business as usual'’, prévoit une demande de 107 Mb/j en 2035 et Karen Ward, auteur de ce rapport, pense qu'en 2050, la demande mondiale de pétrole aura au moins doublé et pourrait atteindre 190 millions de barils par jour.
C'est dans ce contexte économique qu'une information passée relativement inaperçue a été publiée la semaine dernière : les Etats-Unis sont redevenus en 2011 exportateurs nets de produits pétroliers pour la première fois depuis 1949. Comme l'indique le Département de l'énergie (DoE), les raffineurs ont exporté quotidiennement près de 2,9 millions de barils de carburants divers (essence, fioul domestique, gazole) pour 2,4 millions de barils importés. Cette prouesse a deux causes : d'une part, la montée en puissance du gaz et de l'huile de schiste et d'autre part, la baisse de la consommation intérieure provoquée par la récession économique. Une étude réalisée par le MIT prévoit que le gaz naturel fournira 40 % des besoins énergétiques des États-Unis à l'horizon 2030, contre 20 % aujourd'hui, grâce en partie aux abondantes réserves de gaz de schiste. Le gaz de schiste représente à présent 15 % de la production gazière américaine (contre 1 % il y a 10 ans) et cette part devrait monter à 25 % en 2030, ce qui permettra aux Etats-Unis d'être auto-suffisants, alors que le pays envisageait, il y a encore quelques années, des importations massives de gaz liquéfié.
Selon l'Agence internationale de l'énergie, la consommation mondiale de gaz devrait passer de 3000 Gm3 en 2008 à 4.330 Gm3 en 2030 et les Etats-Unis souhaitent abandonner le charbon au profit du gaz naturel et du gaz de schiste plus compétitif et beaucoup moins émetteur de gaz à effet de serre. Les réserves mondiales de gaz de schiste sont immenses : selon l'AIE, elles représenteraient environ 380.000 milliards de m3, soit au moins 120 ans de consommation de gaz naturel, au rythme actuel. L'IFP, pour sa part, les estime à 920.000 milliards de mètres cubes, cinq fois plus que les réserves mondiales de gaz conventionnel !
En France, l'estimation des réserves de gaz de schiste reste incertaine mais ces réserves sont probablement importantes : de l'ordre de 2.400 milliards de m3 selon Total pour le seul secteur de Montélimar, soit 10 à 20 fois la consommation nationale annuelle de gaz, selon que le taux de récupération des gisements s'élève à 20 ou 40 %. Selon d'autres études, l'ensemble des réserves de gaz de schiste en France correspondrait à près d'un siècle de consommation sur les bases actuelles !
Néanmoins, face à la forte opposition des populations locales concernées par l'exploitation des gaz de schiste, le gouvernement français a finalement décidé de suspendre tous les projets prévus en faisant adopter la loi du 13 juillet 2011 qui interdit l’exploration et l’exploitation des mines d’hydrocarbures liquides ou gazeux par fracturation hydraulique et a abrogé les permis exclusifs de recherches comportant des projets ayant recours à cette technique.
Mais, comme l'indique le rapport qui vient d'être publié le 22 mars par la Commission interministérielle sur les gaz et huiles de schiste, même si la technique de fracturation hydraulique doit rester interdite en l'état, il est souhaitable de poursuivre les recherches scientifiques pour essayer de développer des techniques d'exploitation des gaz de schiste sûres et neutres pour l'environnement. Ce rapport souligne que notre pays ne peut pas se permettre de renoncer définitivement à une source potentielle d'énergie très importante alors que nous sommes très dépendants des importations d'énergies fossiles dont le prix s'envole (Sur l’année 2011, le cours du Brent a augmenté de 40 %), que notre facture énergétique dépasse à présent les 61 milliards d'euros par an (2 400 euros par foyer) et que le coût de l'énergie pour les ménages et les entreprises ne cesse d'augmenter.
Mais plus encore que les huiles et gaz de schiste, une autre ressource d'énergie fossile pourrait bouleverser le paysage énergétique mondial avant une dizaine d'années : les hydrates de méthane. Il s'agit de poches de gaz naturel confinées dans des cristaux de glace. Ceux-ci se forment à haute pression et basse température. On les trouve sous les océans dans les bassins sédimentaires ou sous le permafrost des cercles polaires. Le gaz présent dans cette glace se trouve à haute concentration : environ une molécule de gaz pour moins de six molécules d’eau. Ramené à la pression atmosphérique, cela représente un volume de 168 mètres cube de gaz pour 1 mètre cube d’hydrate de méthane.
Les réserves d’hydrate de méthane pourraient représenter jusqu'à 10 fois les réserves mondiales de gaz conventionnel s’élevant à 190 milliards de mètres cubes. Au rythme actuel d’extraction de gaz naturel, cela représenterait 140 à 700 ans de production. Selon l'USGS, le service géologique américain, la quantité de carbone ainsi piégé pourrait s'élever à dix mille milliards de tonnes, soit deux fois la quantité du carbone prisonnier de l'ensemble des gisements mondiaux – exploités ou non – de pétrole, de gaz naturel et de charbon !
Pour l'instant, il n'existe qu'une seule exploitation commerciale d’hydrate de méthane au monde. Elle fonctionne depuis 1978 et est située sur le champ de Messoyakha au nord de la Sibérie. Dans ce site d'exploitation, les hydrates de méthane se sont décomposés mais sont restés prisonniers d’une poche imperméable située sous le permafrost. Mais dans la majorité des autres sites potentiels exploitables, la situation est toute différente et les hydrates de gaz se trouvent dans des couches sédimentaires poreuses. Leur exploitation par liquéfaction provoquerait une remontée très dangereuse de méthane vers la surface. Tous les grands pays industrialisés tentent donc de mettre au point des techniques d’extraction fiables et adaptées à la nature très instable des hydrates de méthane. Il faut en effet savoir que la moindre modification de température ou de pression risque de provoquer la fonte de la poche de glace et de libérer le méthane dans l'atmosphère. Or, l'impact de ce gaz en matière d'effet de serre est de 25 fois celui du CO2 à quantité égale !
Parmi les grands pays pouvant accéder aux hydrates de méthane, le Japon est sans conteste le pays le plus avancé dans la recherche de moyens d’extraction fiables et industriels des hydrates de méthane. Ce pays mise sur cette ressource pour faire face à sa demande croissante d'énergie et renforcer de manière décisive son niveau d'indépendance énergétique sans recourir à une augmentation de la part du nucléaire, une énergie de plus en plus rejetée par l'opinion publique nippone depuis la catastrophe de Fukushima. Selon les prévisions des scientifiques et du gouvernement japonais, cette nouvelle source d'énergie pourrait couvrir, au rythme actuel de la consommation, les besoins énergétiques de l'archipel nippon pendant plus d’un siècle ! Après plus de 10 ans de recherche, le Japon va commencer ses premiers tests d’extraction d'hydrates de méthane en 2013 et vise l'exploitation commerciale à grande échelle d’ici 2016.
Reste que le défi technique et industriel que représente cette exploitation des hydrates de gaz sous-marins est considérable. Plusieurs voies technologiques sont expérimentées. On peut tout d'abord réchauffer ces hydrates avec de l'eau chaude et les pomper sous forme gazeuse. 1 m3 d'hydrate donne alors 164 m3 de gaz à la pression atmosphérique normale et 0,8 m3 d'eau. Mais cette technologie est lourde, complexe et coûteuse. Elle nécessite le forage de puits jusqu’à la couche contenant les hydrates de méthane. Ensuite de chauffer un fluide en surface (eau chaude ou vapeur) et le faire circuler dans le puits. Il est en outre très difficile de réchauffer ces hydrates de méthane car l’eau chaude amenée dans les profondeurs marines se refroidit rapidement sous l'effet de l’eau de mer très froide au contact du pipeline.
Autre méthode : la dépressurisation, à l’intérieur du puits de forage pour provoquer la séparation des hydrates. Il est également possible de pomper le méthane gazeux sous les hydrates en créant une dépressurisation. Mais ces méthodes sont très gourmandes en énergie, surtout quand elles s'appliquent aux hydrates emprisonnés à grande profondeur.
L'utilisation d'un inhibiteur dans la couche géologique contenant les hydrates est également expérimentée mais cette technique est complexe car elle suppose la diffusion du produit dans toute la couche contenant les hydrates à récupérer.
Enfin, une autre méthode est porteuse d'immenses potentialités. Elle a été imaginée par le scientifique Japonais Kazunari Ohgaki de l'Université d'Osaka, en 1996 et consiste à séquestrer le CO2 en l’injectant dans l’hydrate de méthane afin qu’il se substitue à celui-ci. Cette méthode prévoit également l'utilisation d'azote pour accélérer ce processus physico-chimique de substitution. Ces processus font l’objet de divers programmes d’études comme le programme allemand SUGAR lancé par l’Institut Leibnitz pour les Sciences Marines de Kiel.
En coopération avec ConocoPhillips et la Japan Oil Gas and Metals National Corporation (JOGMEC), un laboratoire du ministère américain de l’énergie (DOE) doit prochainement tester, dans le nord de l’Alaska, une nouvelle technologie de récupération des hydrates de méthane qui contiennent 12 % de CO2 dans ce site. Les chercheurs vont essayer de capter ce CO2 puis de le réinjecter dans le forage Ignik Sikumi. Des expérimentations menées par des chercheurs de l’université de Bergen (Norvège) ont en effet montré que le CO2 injecté dans les sables riches en hydrates peut se substituer au méthane extrait.
Cette technique présente des avantages décisifs sur les autres voies d'extraction à l'étude : elle consomme bien moins d'énergie et permet de réduire considérablement le bilan carbone en utilisant le CO2 de puits de gaz voisins. En outre, le CO2 étant plus stable que le méthane, cette technologie ne déstabilise pas les fonds marins et ne produit pas d’eau additionnelle. Mais il y a loin de la démonstration en laboratoire à la mise en œuvre à grande échelle sur le terrain car beaucoup d'inconnues subsistent, à commencer par le degré de porosité des couches sédimentaires qui risque de rendre plus ou moins difficile la pénétration du CO2. Conscients de ces obstacles, les Américains ne tablent pas sur une exploitation rapide de ces nouveaux gisements alors que les Japonais, plus avancés dans leurs recherches, envisagent de commencer l'exploitation industrielle des hydrates du champ de Nakaï (situé à 700 kilomètres au sud-est du Japon), dès ces prochaines années..
Grâce à ses territoires d’outre-mer, la France regroupe 11 millions de km² de zone marine et possède le second domaine maritime mondial, derrière les Etats-Unis. Elle a en outre entamé une procédure de justice internationale pour agrandir d'encore un million de km2 son domaine maritime.
En France, le projet expérimental Fordimhys (Formation and Dissociation of Methane Hydrates in Sediments) de production sous pression d'hydrate de méthane, sponsorisé par Gaz de France, Total et l'Institut français du pétrole et conduit par Jean-Michel Herri et Olivier Bonnefoy, du Laboratoire des procédés en milieux granulaires, devrait permettre de mieux évaluer, d'ici quelques mois, la faisabilité d'une exploitation à grand échelle des hydrates de méthane par notre pays.
On comprend mieux cet enjeu technologique, économique et énergétique quand on sait que l'exploitation des hydrates de méthane ne se limite pas aux immenses réserves qui tapissent les fonds sous-marins. En effet, les hydrates de méthane pourraient également à terme constituer une voie alternative tout à fait rentable pour le transport du méthane sur des distances relativement longues (jusqu'à 6000 km). Le transport des hydrates par bateau pourrait donc se substituer pour une large part à l'acheminement du gaz naturel liquéfié par gazoduc.
Deux siècles après leur découverte par le chimiste britannique Humphrey Davy, la récupération et l'exploitation à grande échelle des hydrates de méthane et l'exploitation massive du gaz de schiste à l'aide de méthodes respectueuses de l'environnement et intégrant systématiquement des systèmes de capture et de séquestration de carbone, pourraient donc révolutionner le paysage énergétique mondial au cours de ces vingt prochaines années. La France, qui a la chance de posséder en grande quantité ces ressources énergétiques précieuses, tant dans son sous-sol que dans son immense domaine maritime, doit, dans un cadre de coopération européenne et internationale renforcée, tout mettre en œuvre pour devenir un pays pionnier dans l'exploitation propre et durable de ce nouvel "or bleu".
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Picos propose aux mobinautes de se créer plusieurs profils, contenant plus ou moins d'informations sur eux. Au moment de partager un contenu, il suffit de sélectionner avec quel compte on souhaite le faire.
Comment faciliter la gestion de sa vie privée sur les réseaux sociaux ou les jeux en ligne ? En passant par une plate-forme tierce, répond le projet européen Picos. Il a mis au point une application pour smartphone qui permet de gérer ses informations et son identité sur les services communautaires. Pour ce faire, le dispositif propose à son utilisateur un ensemble de services lui permettant de bien choisir les informations qu'il publie, l'identité qu'il utilise pour la partager et qui y aura accès. Aussi, lorsqu'un utilisateur souhaite partager, via son ordiphone, une photographie ou un message, il peut décider de le faire sous différentes identités qu'il aura préalablement créées. Dans les faits, l'utilisateur de Picos télécharge l'application disponible sur Android. Il crée deux profils : l'un avec une identité A (nom, âge, profession, etc.), l'autre avec une identité B (pseudo, intérêt pour les jeux).
- Séparer vie privée et vie professionnelle
Lorsque l'utilisateur souhaite partager une photo d'un environnement d'un jeu tel que World of Warcraft sur un site dédié, il précise que la photo doit être partagée avec l'identité B. Lorsqu'il partage une photo relative à un déplacement professionnel sur un réseau social, il précise qu'il souhaite le faire avec l'identité A. Aussi, en partageant une photo relative au jeu, il le fait sans que les autres utilisateurs aient accès à son nom ou à sa profession, s'assurant par ailleurs que ses collègues de bureau ne le retrouvent pas sur un forum du jeu. De la même façon, l'application permet de choisir le degré de précision lorsqu'un possesseur de smartphone souhaite se localiser sur un réseau social. Aussi, en passant par l'application et non simplement par son mobile, l'utilisateur peut choisir d'être localisé sur une carte de manière précise ou dans un rayon d'un, de deux ou de cinq kilomètres.
Autre service apporté par l'application : la création de sous-groupes. En effet, PICOS permet à son utilisateur de donner accès aux informations de son téléphone mobile telles que les photos qui y sont présentes. Mais il permet de le faire en choisissant à quelles informations un contact particulier aura accès. Pour ce faire, l'utilisateur crée un groupe ami et un groupe famille, intégrant chaque contact à un de ces deux groupes. Il choisit alors à quelles photos chaque groupe aura accès. Enfin, PICOS avertit l'utilisateur lorsque celui-ci publie une information sensible. C'est pourquoi lorsqu'un individu écrit son numéro de mobile dans un message destiné à un forum, l'application lui demande s'il est sûr de vouloir le partager. A noter que PICOS, en cours de développement, n'a été testé que sur les applications des communautés de trois types d'utilisateurs : les pêcheurs, les taxis et les joueurs en ligne.
L'Atelier
|
|
|
|
|
|
|
|
L’évolution vers les réseaux optiques 200G est désormais possible, affirme ZTE. L’équipementier chinois a profité de la conférence OFC/NFOEC de Los Angeles (du 6 au 8 mars) pour annoncer avoir franchi un débit de 1,7 Tbit/s (1700 Gbit/s) sur fibre optique en technologie de longueur d’onde multiplexée WDM (8 x 216.4 Gb/s, exactement). « La démonstration a utilisé une technologie brevetée ZTE à haute fréquence pour accomplir une polarisation à 200 Gb/s de transmission de multiplexage de signal QPSK à 50 GHz sur un câble de fibre optique unique long de 1,75 km », explique le constructeur. Il en résulte une augmentation du spectre de 25 % et, donc, une hausse de la capacité de transfert qui rend possible une transition des réseaux 100G vers une offre 200G sans nécessiter de modification sur l’infrastructure. Mais aucune date de disponibilité de l’offre n’est avancée à ce jour.
ZTE, qui s’était déjà distingué en 2010 dans la 100G avec un record expérimental de 11,2 Tbit/s, n’est évidemment pas le seul à innover en matière de vitesse de transfert optique. À l’occasion de la conférence américaine, Alcatel-Lucent a également présenté une solution 400G (24,6 Tbit/s sur 48 canaux) également compatible avec les réseaux optiques actuels. Le compatriote de ZTE (et concurrent) Huawei a également fait une démonstration du 400G (20 Tb/s) sur fibre optique.
Mais pour l’heure, les opérateurs tentent de mettre à jour leurs réseaux de la 10G à la 40G voire la 100G au mieux, selon Infonetics Research. Les 200G et 400G pourraient donc profiter aux futurs réseaux de télécommunications dans un premier temps. Ou bénéficier aux opérateurs qui tardent à faire évoluer leur infrastructure qu’ils mettront directement à jour vers les plus hautes performances. Augmenter la capacité des réseaux permet notamment d’optimiser le coût de la donnée (plus de bits dans un même temps de traitement).
Silicon
|
|
|
|
|
|
|
|
Proposer de guider une personne en incrustant les manipulations à effectuer sur une machine dans le champ de vision de la personne qui apprend peut faciliter l'acquisition de savoir-faire. Guider un employé ou un apprenant à distance dans la manipulation ou la réparation d'une machine n'est pas toujours une mince affaire. Cela, que ce soit pour le formateur, qui n'a pas la machine face à lui. Mais également pour l'employé ou la personne en formation, si elle ne connaît pas assez bien les rouages ni même le jargon associé. De ce constat, un chercheur de l'Université d'Osaka, Eimei Oyama, a travaillé sur un système qui exploite le principe de réalité augmentée. Il a mis au point un système de guidage à distance portatif, le Wearable Behavioural Navigation System. Celui-ci, qui faisait partie des lauréats de forum 2012 Netexplo, permet à un expert de voir l'objet défaillant et de guider la personne en face de la machine, à l'aide de lunettes.
- Visualiser les gestes pour mieux les répéter
En fait, les deux parties doivent porter un casque et des lunettes de projection. Chacun des casques comporte une webcam. Celle placée sur le casque de la personne sur place lui permet d'envoyer les images de la machine à l'expert. La seconde permet à ce dernier d'envoyer l'image de ses mains. Les mains sont alors projetées sur les lunettes du collaborateur qui doit réparer ou apprendre, et se superposent à ce que celui-ci voit en face de lui. Ainsi, l'expert peut montrer à l'apprenant quels sont les gestes à accomplir pour réparer la machine.
Le dispositif a à l'origine été conçu pour permettre d'apporter les premiers secours à une personne blessée. Mais Eimei Oyama espère que dans le futur celui-ci permettra par exemple à n'importe qui de réparer sa machine à laver avec l'aide d'un réparateur ou même de préparer un repas assisté par un chef. A noter que dans la même veine, L'Atelier s'était fait l'écho, il y a quelques mois, d'une invention de guidage à distance créée par l'institut FKIE du Fraunhofer s'appuyant cette fois-ci sur l'utilisation d'une webcam et de codes barres 2D.
L'Atelier
|
|
|
|
|
|
|
|
La lecture sur support électronique suscitait déjà les débats il y a une quinzaine d'années. Cela avait été détecté comme une tendance avec les débuts de l'Internet. Mais elle n'a pas été vraiment suivie car il était difficile de comprendre que les choses allaient se transformer de manière drastique. Il a fallu attendre les chiffres, de pouvoir mesurer le phénomène. C'est depuis quelques années seulement qu’on s’est effectivement rendu compte qu’il y avait un mouvement qui était enclenché, qu’on ne reviendrait plus en arrière. A partir de ce moment là, il a été plus facile d’intéresser les professionnels. Malgré tout, il reste difficile de faire en sorte que ces derniers se lancent de manière volontaire et dans une dynamique de conquête sur ce marché.
Parce que, pendant longtemps et encore aujourd'hui pour un certain nombre d’entre eux, la filière numérique était une filière concurrente de la filière traditionnelle. L’enjeu est désormais de trouver les clés pour cesser de se faire la guerre en interne, et pour intégrer une fois pour toute le numérique. Qu'il devienne l'un des modèles d'affaire du livre. Or pour accéder aux livres, qu’ils soient numériques ou pas, il faut un objet. La tablette est le premier vrai succès dans le monde du numérique pour rematérialiser cet objet. En effet, avec le digital, finalement, on a dématérialisé des choses. Et on s'est vite rendu compte que le PC n’était pas le support idéal pour aller lire. Savoir si la lecture électronique se fera sur tablette ou pas n'est donc pas un faux débat, mais ne cerne pas le problème. Le vrai débat, c'est le contenu, qui est la clé.
Le service et les objets qui donnent accès au service sont un plus, ils sont ce qui va permettre de créer du confort, du plaisir, pour in fine accéder à du contenu. Continuons donc à discuter de la tablette ! Parce que finalement, grâce à ce support, on a commencé à montrer la direction. Les professionnels se sont dit qu'il fallait continuer à creuser cette voie s'ils voulaient recréer un objet qui supporte le livre numérique. Et le public a adhéré. La filière a compris qu'il y avait une voie, qu'elle pouvait construire un modèle économique. Tout ce qui permettra de gérer la transition ne peut être que valorisant pour le secteur !
L'Atelier
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Pour ce prototype de robot sous-marin, ses concepteurs se sont inspirés de la morphologie et de la nage d’un animal simple : la méduse. Sans moteur thermique ni électrique, il fonctionne grâce à des matériaux à mémoire de forme, de nanotubes de carbone et du platine. Ses carburants sont l'oxygène et l'hydrogène.
Les méduses exécutent des mouvements gracieux durant leurs déplacements. Elles contractent rythmiquement leur ombrelle pour expulser l’eau qu’elles enferment. Par réaction, ces cnidaires pélagiques sont alors propulsés vers le haut. Elles avancent donc, lorsqu’elles nagent activement, par bonds.
La fermeture de l’ombrelle est causée par la contraction d’un muscle circulaire situé sur la face interne de l'animal. Lorsque l’effort musculaire se relâche, la mésoglée, substance gélatineuse enfermée entre les deux couches de tissus, permet au corps de réacquérir sa forme initiale. En l'absence de squelette interne, ces mouvements ne peuvent qu'être symétriques et les méduses, incapables de nager véritablement, restent des animaux planctoniques, se déplaçant au gré des courants marins.
Des chercheurs de la Virginia Tech, menés par Yonas Tadesse, se sont inspirés de cet invertébré pour développer un nouveau robot sous-marin nommé Robojelly (une méduse se dit jellyfish en anglais). Il se déplace grâce à des mouvements de nage en tout point semblables à ceux exécutés par le modèle Aurelia aurita. Pourtant, il ne possède pas de moteur ! Son fonctionnement dépend intégralement des matériaux employés et de la survenue de réactions chimiques à leur surface. Sa conception est présentée dans la revue Smart Materials and Structures.
- Robojelly : une méduse propulsée grâce au platine
Le robot se compose de 8 segments de silicone s’assemblant pour former une ombrelle artificielle d’un diamètre de 164 mm et d’un poids de 242 g. Sur leur face interne, ces éléments abritent des muscles composés entre autres d’un matériau à mémoire de forme (SMA) enchâssé dans des nanotubes de carbone en plusieurs couches et recouverts de platine. Un SMA est capable de reprendre sa forme d'origine après avoir été déformé. Ces muscles synthétiques peuvent changer de forme suite à l’action d’un stimulus : la chaleur.
L’énergie calorifique nécessaire au fonctionnement de l’automate provient d’une réaction chimique exothermique entre l’oxygène et l’hydrogène, et catalysée par les nanoparticules de platine. Le produit formé lors de cette réaction n’est autre que de l’eau. Les deux gaz sont contenus dans des réservoirs mais le robot pourrait à terme exploiter l’oxygène dissous dans l'eau. Cette réaction chimique, l’oxydation de l’hydrogène, est également utilisée dans les piles à combustible. Mais ici, elle provoque directement le mouvement, et non de l’électricité.
La chaleur produite dans les tubes est transmise au SMA grâce à la grande conductivité thermique des nanotubes de carbone. Selon les inventeurs, l’utilisation d’oxygène et d’hydrogène pourrait fournir une plus grande densité énergétique que le recours à une source électrique. Les propriétés contractiles des muscles dépendent directement de la taille des tubes employés. Les plus efficaces mesurent 1,6 mm de diamètre.
Le projet est toujours en phase de test. Une vidéo est néanmoins disponible pour présenter les résultats déjà obtenus. Pour l’instant, les 8 parties du robot se contractent toujours simultanément. Une des prochaines étapes de développement consistera à rendre chaque morceau autonome. Cette propriété permettra aux robots de se diriger dans des directions précises, tout en étant guidés par un opérateur.
Futura Sciences
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs du CEA, du CNRS, de l’Université Lille 1 et de l’Université de Northwestern ont élaboré un nouveau procédé original de fabrication de transistors combinant flexibilité et mobilité électronique, capables de fonctionner à très haute fréquence (GHz) et utilisant du graphène manipulé « en solution », compatible avec des techniques d'impression. De tels composants électroniques devraient permettre le développement de circuits électroniques performants, intégrés dans les objets du quotidien. Ces résultats sont publiés dans la revue Nano Letters du 14 mars 2012.
Le graphène, plan unique d’atomes de carbone à structure hexagonale, possède des propriétés exceptionnelles. En particulier, la grande mobilité des électrons dans ce matériau doit favoriser le fonctionnement à très haute fréquence de composants électroniques réalisés en graphène. Par ailleurs, ses propriétés mécaniques en font un matériau flexible. Ces deux avantages pourraient être mis à profit dans la fabrication de composants et de circuits électroniques destinés à des secteurs variés : développement d’écrans souples, de transistors et de composants électroniques très performants et fabriqués à bas coût.
Actuellement, plusieurs voies de synthèse du graphène existent. L’une d’elles permet de le produire sous la forme d’une solution de particules de quelques centaines de nanomètres de diamètre, stabilisées dans l'eau par des tensioactifs. Pour obtenir cette « encre conductrice », la voie de synthèse utilisée permet de ne sélectionner que des feuillets monocouches qui assurent des propriétés électroniques remarquables (et non un mélange de graphène monocouche et multicouche). Autre spécificité : la production de composants peut s’effectuer sur des supports très variés tels que du verre, du papier ou encore un substrat organique. Des chercheurs du CEA, du CNRS, de l’Université Lille 1 et de l’Université de Northwestern ont, pour la première fois, élaboré un procédé original de fabrication de transistors flexibles à partir de graphène solubilisé, sur des substrats de polyimide (polymère thermostable). Ils ont ensuite étudié de manière approfondie leurs performances haute-fréquence.
Dans le procédé mis au point, les feuillets de graphène en solution sont déposés sur le substrat sous l'effet d'un champ électrique alternatif appliqué entre des électrodes préalablement fabriquées. Cette technique de diélectrophorèse (DEP) permet de diriger le dépôt du graphène et d'obtenir localement une forte densité de feuillets déposés. Cette densité est cruciale pour obtenir d'excellentes performances à haute fréquence. Ainsi, la mobilité des charges dans les transistors réalisés est de l'ordre de 100 cm2/V.s, ce qui est très supérieur aux performances obtenues avec des molécules ou des polymères semi-conducteurs. Ces transistors atteignent donc des fréquences très élevées, de l’ordre de 8 GHz, jusqu’ici jamais obtenues en électronique organique !
Ces résultats montrent que le graphène préparé sous forme d’ « encre conductrice » est un matériau particulièrement compétitif pour la réalisation de fonctions électroniques flexibles dans une gamme de hautes fréquences (GHz) totalement inaccessibles aux semi-conducteurs organiques classiquement utilisés. Cette nouvelle génération de transistors ouvre des possibilités importantes dans de nombreux domaines d’applications tels que les écrans souples (pliables ou enroulables), l’électronique intégrée dans des textiles.
CEA
|
|
|
|
|
|
|
|
Une entreprise allemande vient d’inaugurer une ligne de production de films photovoltaïques organique. Avec sa technologie, qui lui a valu le Prix de l’Innovation 2011 en Allemagne, Heliatek espère devenir le leader de la troisième génération de cellules photovoltaïques. Le site de production d’Heliatek GmbH à Dresde (Allemagne) a été inauguré le 12 mars. Cet appareil de production, qui représente un investissement de 14 millions d’euros, fabriquera des panneaux solaires flexibles basés sur des matériaux semiconducteurs organiques. Le procédé fixe de courtes molécules organiques - appelées oligomères - semiconductrices sur un support souple par déposition sous vide. Le support est entraîné en continu par des rotatives, d'où son appellation "Roll-to-roll". La ligne tournera véritablement à plein régime à la fin de l'été 2012 pour atteindre 2 à 3 MW de capacité annuelle.
D’après l’entreprise, ce procédé possède une forte adaptabilité à la production de masse, permettant ainsi d'abaisser sensiblement les coûts. Il s'agit, du reste, de la première ligne de production au monde à l’utiliser, les concurrents d’Heliatek pariant sur des procédés d’impression classiques. « La déposition sous vide est déjà utilisée par l'industrie Oled. Elle permet d'évaporer les oligomères pour les recondenser sur le subtrat avec une grande reproductibilité », souligne Thibaud Le Séguillon, directeur général d’Heliatek GmbH.
Dans cette course à l'organique, la jeune entreprise allemande compte plusieurs atouts. Le Dr. Martin Pfeiffer, directeur technique et cofondateur d’Heliatek, s’est vu décerner en décembre 2011 le Deutscher Zukunftspreis. Ce prix de la technologie et de l’innovation, remis par le président Allemand, récompense l’électronique organique innovante grâce à laquelle Heliatek a signé un record mondial de rendement en 2011, à hauteur de 9,8 %. Par ailleurs, la firme affiche des partenariats de recherche et d’investissement avec de puissants industriels, tels que BASF, Bosch ou Innogy Venture Capital (filiale de l’électricien RWE).
« Heliatek produira d’abord des cellules organiques pour des applications mobiles de type Energy-2-Go (sacs solaires, parasols, chargeurs de portables) à l’automne 2012 », précise Thibaud Le Séguillon. « Ces produits embarqueront l’énergie solaire verte partout où elle est nécessaire et prouveront surtout la viabilité de notre procédé. Dans un second temps s’ouvrira un marché de plus grande ampleur : le photovoltaïque intégré au matériaux du bâtiment. Dans cette optique, nous prévoyons de boucler un autre tour de table de 60 millions d'euros cette année pour ouvrir une nouvelle ligne de production ». Cette seconde ligne, prévue à l’horizon 2014, devrait faire bondir la production vers les 75 MW par an. Par rapport aux deux premières générations de photovoltaïque, basées respectivement sur le silicium cristallin et les couches minces, les caractéristiques du solaire organique pourraient créer de nouvelles possibilités en termes d’intégration, de transparence, ou de recyclabilité des cellules.
Industrie & Technologies
|
|
|
|
|
|
|
|
Les physiciens de la collaboration ALPHA, qui travaillent au Cern, près de Genève, ont franchi une nouvelle étape décisive : après avoir réussi dans un premier temps à produire des atomes d’antihydrogène, puis dans un second temps à les piéger plus de 1000 secondes, ils ont réussi à réaliser une première mesure. «Nous avons prouvé que nous pouvons sonder la structure interne de l’atome d’antihydrogène», explique Jeffrey Hangst, porte-parole de la collaboration internationale, sur le site du Cern. Si un atome d’hydrogène rencontre un atome d’antihydrogène, ils s’annihilent. D’où la difficulté à faire vivre l’antimatière plus que quelques fractions de seconde. Dans le dispositif de l’expérience ALPHA, les chercheurs piègent les antiatomes grâce à des champs magnétiques. Ils ont ajouté des microondes dans le dispositif pour modifier l’orientation de ces atomes d’antihydrogène et les libérer ainsi du piège. Au moment où l’antiatome s’annihile au contact de la matière, il laisse des traces caractéristiques de sa structure dans les détecteurs du piège.
Cette expérience, qui vient d'être publiée dans la revue Nature, n’a pas encore fourni de mesure extrêmement précise, elle avait d’abord pour objectif de démontrer la faisabilité de telles manipulations. L’objectif est de pouvoir comparer le spectre de l’atome d’hydrogène et de l’atome d’antihydrogène. Pour l’hydrogène, ce spectre est déjà connu : il est obtenu en excitant l’atome avec de la lumière. L’électron qui est en orbite autour du noyau passe sur une orbite plus haute avant de revenir à la normale. En mesurant toutes les fréquences lumineuses émises par l’atome on obtient un spectre caractéristique. Le Graal des physiciens d’ALPHA est de mesurer le spectre de l’atome d’antihydrogène !
Il sera alors peut-être possible de répondre à la question fondamentale qui sous-tend tous ces efforts : pourquoi la matière l’a emporté sur l’antimatière, alors qu’elles ont existé en quantités égales au moment du Big Bang.
Sciences et Avenir
|
|
|
|
|
|
|
|
La France, largement distancée dans l'éolien offshore, ne veut pas laisser lui échapper le leadership d'une autre énergie marine prometteuse, les hydroliennes, avec l'annonce le 19 mars d'un futur appel d'offres en Normandie censé faire éclore une nouvelle filière industrielle. Cet appel à candidatures portera sur l'installation et l'exploitation de centaines d'hydroliennes sur le passage du Raz Blanchard, un des plus forts courants marins du monde entre la Basse-Normandie et l'île anglo-normande d'Aurigny (Alderney), a annoncé le ministre de l'Energie Eric Besson, devant un parterre d'industriels et d'élus au siège parisien du constructeur naval DCNS.
Cet appel d'offres, qui doit être lancé d'ici deux ans, sera basé sur le modèle de celui en cours dans l'éolien offshore, lequel vise à installer des centaines d'éoliennes au large des côtes normandes et bretonnes. Les premiers lauréats seront annoncés le mois prochain. L'objectif est clair : donner une longueur d'avance aux industriels français dans la course européenne à la fabrication des hydroliennes, ces grosses turbines sous-marines qui permettent de transformer l'énergie des courants en électricité, afin de garantir l'installation sur le territoire de milliers d'emplois qui iront autrement s'implanter ailleurs, comme cela s'est produit dans l'éolien offshore.
Afin de préparer cet appel d'offres, le gouvernement va demander aux industriels et énergéticiens de lui soumettre avant la fin de l'année des propositions techniques et des schémas financiers. Parallèlement, l'Etat délimitera les zones d'implantation des parcs d'hydroliennes et RTE, filiale d'EDF qui gère les lignes à haute tension, étudiera les conditions de leur raccordement au réseau électrique. "Les énergies marines renouvelables constituent une opportunité industrielle pour la France et cette opportunité, nous allons la saisir complètement", a assuré M. Besson.
Outre leur contribution aux objectifs nationaux et européens de réduction des émissions de CO2, les énergies marines renouvelables (EMR) représentent un vaste gisement potentiel d'emplois. En effet, le Groupement des industries de construction et activités navales (GICAN) a identifié 356 entreprises françaises compétentes dans les EMR, dont 40 % n'ont pas encore cherché à saisir ce potentiel. Et il estime que les technologies marines naissantes, dont les hydroliennes, pourraient générer à terme plus d'emplois que les 10.000 postes déjà prévus dans l'éolien offshore.
Parmi les groupes français actifs sur ce marché (comme Alstom, EDF, STX...), DCNS estime disposer d'une avance technologique grâce à son partenariat avec le groupe irlandais OpenHydro, pionnier des hydroliennes dont il a acquis 11 % du capital l'an dernier. DCNS, qui veut réaliser un tiers de son chiffre d'affaires dans les EMR d'ici la fin de la décennie, construit depuis l'an dernier avec OpenHydro le premier parc d'hydroliennes du monde au large de Paimpol et Bréhat, pour le compte d'EDF. La première hydrolienne, d'un diamètre de 16 mètres, a été installée sur ce site breton cet automne et les résultats initiaux ont montré un rendement supérieur de 15 % aux attentes, a indiqué Frédéric Le Lidec, responsable des énergies marines chez DCNS.
Libération
|
|
|
|
|
|
|
|
Les neutrinos sont ces particules, quasiment sans masse, qui ont défrayé la chronique depuis septembre dernier pour de possibles excès de vitesse dans un trajet souterrain entre la Suisse et l'Italie. Mais d'autres mystères les entourent alors même qu'ils sont parmi les particules les plus abondantes de l'Univers. Ils nous tombent par milliards sur la tête (et nous traversent sans dégâts) en provenance du Soleil, ou issus des chocs de particules plus lourdes sur les atomes de notre atmosphère. Malgré cette douche permanente, l'ignorance domine. Les physiciens se posent même de drôles de questions : Combien de types de neutrinos existe-t-il ? Trois ? Davantage ? S'ils se regardent dans un miroir, sont-ils exactement les mêmes ? Selon les réponses, un voile se lèvera sur les débuts de l'Univers et sur les raisons pour lesquelles 85 % de la matière ordinaire nous échappe encore...Autant dire que ces "déficits" ne sont pas pris à la légère.
Le 8 mars, l'expérience chinoise Daya Bay annonce avoir reçu sur ses détecteurs environ 5 % de neutrinos en moins que ce qu'elle attendait provenant d'une centrale nucléaire située à deux kilomètres. C'est aussi, avec moins de précision, ce qu'avait observé, en juin, l'expérience T2K au Japon, ou en novembre, dans les Ardennes, la collaboration Double Chooz conduite par des équipes du CEA et du CNRS. "Les mesures sont comparables mais, avec huit détecteurs quinze fois plus gros que notre unique détecteur, la précision est meilleure", constate Thierry Lasserre (CEA), de Double Chooz. Cette perte de neutrinos était prévue par la théorie mais pas son ampleur. Elle est reliée à une bizarrerie de ces particules : leur capacité à se transformer en un autre type de neutrinos, comme si un guépard devenait lion en poursuivant une gazelle. Sauf qu'il n'existerait que trois familles, ou saveurs, de neutrinos.
En 1998, cette propriété étrange, aussi appelée oscillation, a été confirmée. Elle dépend des différences de masse entre les trois familles ainsi que de trois paramètres mathématiques, des angles, comme en géométrie. Des expériences ont précisé la valeur de deux angles mais il en manquait un, celui attrapé par les Chinois. Les 5 % de neutrinos manquants sont des neutrinos qui se sont transformés en un mélange des deux autres. "Nous n'avions aucune idée de la valeur de cet angle et certains pensaient qu'il pouvait être très petit, voire nul", témoigne Hervé de Kerret (CNRS), de Double Chooz.
Finalement l'angle est plutôt "grand ". Si cela plonge les théoriciens dans la perplexité pour expliquer l'ampleur de cette probabilité d'oscillation, cela réjouit les expérimentateurs. "Cette valeur "grande" est une bonne nouvelle car pour l'étape suivante nous pourrons construire des détecteurs moins gros et moins coûteux", explique Alessandra Tonazzo de l'université Paris-VII. Cette étape, capitale, consiste à tester si des neutrinos se regardant dans un miroir se reconnaissent ou non. Dans un miroir de physiciens une particule devient une antiparticule qui a vraiment l'air de ressembler à son modèle. Mais il faut tester si les deux images sont strictement identiques. Car, nous l'observons tous les jours, la matière a pris le pas sur l'antimatière et cela ne peut provenir que d'infimes différences au tout début de l'Univers.
Plusieurs projets, gigantesques, sont donc lancés pour vérifier si les oscillations des antineutrinos, sur des centaines de kilomètres, sont comparables à ceux des neutrinos. En Europe, le projet Laguna a déjà sélectionné deux sites - dans une mine finlandaise et dans le tunnel de Modane, entre la France et l'Italie - qui enregistreront des neutrinos en provenance du CERN, en Suisse. Aux Etats-Unis, le projet LBNE est également sur les rails. Les détecteurs seront 25 fois plus gros que le plus gros détecteur actuel, qui fait une quarantaine de mètres de hauteur. Si l'angle mesuré par Daya Bay avait été plus petit, il aurait fallu faire encore plus gros. Ouf !
En attendant, une expérience plus modeste, Nucifer, a commencé au CEA de Saclay le 13 mars, pour s'attaquer à un autre déficit, tout aussi majeur pour la compréhension de l'Univers. En janvier 2011, Thierry Lasserre et ses collègues ont démontré qu'à quelques mètres du coeur d'un réacteur il y a 6 % de neutrinos en moins que ce que la théorie prédit. La seule explication serait une nouvelle pirouette des neutrinos, qui se transformeraient en une espèce encore jamais vue : une quatrième saveur, s'ajoutant aux trois autres !
Les théoriciens, toujours en avance, l'envisagent en réalité depuis longtemps et l'ont baptisée "stérile" pour indiquer son caractère indétectable. Depuis cette publication, la communauté bouillonne. Après un colloque en septembre aux Etats-Unis, un livre blanc sera publié en avril prochain à destination des agences de financement pour les convaincre de mettre la main à la poche. Selon ce document, six résultats plaident déjà en faveur de l'existence de neutrinos stériles. Le plus ancien, LSND, aux Etats-Unis, remonte à 1998.
Des données astrophysiques sur les premiers instants de l'Univers s'accommodent aussi fort bien d'un quatrième neutrino. Il serait un bon candidat pour la masse manquante, cette matière comptant pour 85 % de celle de l'Univers et qu'on n'a jamais identifiée. Du coup, pléthore d'expériences sont proposées dans ce livre blanc. Dont Nucifer. Son détecteur, comparable à celui de Double Chooz mais en modèle très réduit, sera positionné à seulement sept mètres du coeur du réacteur de recherche Osiris au CEA Saclay. Un record. La même équipe propose aussi de plonger une source très radioactive de cérium au sein d'un des gigantesques détecteurs actuels de neutrinos en forme de piscine pour vérifier tout effet de distance dans les mesures. "Depuis notre proposition, les Chinois sont aussi entrés dans la course", constate Thierry Lasserre. Avec les neutrinos, il est décidément toujours question de vitesse.
Le Monde
|
|
|
|
|
|
|
|
Il y a maintenant un an que se sont déroulés les malheureux événements tels que le tremblement de terre, puis le tsunami et enfin la catastrophe de la centrale nucléaire de Fukushima, au Japon. Le gouvernement en place a lancé un grand plan de fermeture des différentes centrales nucléaires qui sont installées sur l'archipel nippon. Mais le remplacement de cette source d'énergie que consomment principalement les Tokyoïtes, n'est pas une mince affaire. Pour y parvenir il faut, soit passer par les énergies fossiles, qui coûtent de plus en plus chères et sont polluantes, soit par les énergies renouvelables, qui coûtent également chères au départ et qui ne produisent finalement pas autant que les centrales nucléaires.
Pourtant, les ingénieurs japonais auraient trouvé une solution à leur problème qui pourrait faire le tour de la planète si celle-ci est viable. Tout simplement, ils ont retenu l'énergie éolienne. Pour le moment, rien de nouveau, pire, cette énergie n'a pas bonne réputation car elle "pollue" le paysage et fait du bruit, ce qui nuit à la faune alentour. Mais les ingénieurs japonais ont repensé le design de l'éolienne pour l'optimiser au maximum et donc générer un maximum d'énergie, tout en réduisant son impact sur le bruit. Pour bien faire, ils ont pensé les installer en mer, sans attaches sous-marines qui détruisent aussi les fonds marin. Pour comparaison, l'ancienne génération permet de produire, sur une surface de 440 000 km², soit 1/4 de la taille de l'Alaska, 19710 MW/h par km² ce qui donne au final pour le parc éolien complet 8,7 milliards de MW/h, soit à peu près 1/3 de la consommation de l'énergie des Etats-Unis (26,6 milliards de MW/h). La nouvelle éolienne japonaise, pour la même surface, pourrait produire le triple…
Il serait donc possible de supprimer toutes les centrales thermiques actuelles, pour les Etats-Unis, avec cette nouvelle version. Nous convenons que la surface occupée est tout de même importante, mais les Japonais savent construire sur l'eau, leur aéroport est un bon exemple, la surface nécessaire est suffisante sur l'océan pour couvrir leurs besoins et donc régler leur souci de fermeture des centrales nucléaires.
PC World
|
|
|
|
|
|
|
|
Le partenariat entre les sociétés Opaly et Smac permet de regrouper les métiers de façadiers, thermiciens et chauffagiste avec un seul produit : une façade orientée sud qui participe au chauffage des bâtiments.
Mise au point par le bureau d’ingénierie Opaly, Activeskin est une façade solaire aérothermique qui permet de chauffer l’air des bâtiments. Le procédé combine les performances d’un mur trombe () – l’air est préchauffé dans la façade grâce à des capteurs solaires spécifiques - et d’une façade pariétodynamique – la paroi est transformée en échangeur de chaleur.
En théorie, cette façade s’installe sur tous types de bâtiments, en rénovation, comme en neuf. Pour l’instant, les huit chantiers réalisés concernent surtout des bâtiments industriels et des supermarchés, qui présentent à l’origine des parois sommaires en tôles nervurées sous isolant. La paroi qui va capter le rayonnement solaire se met en œuvre sur ce complexe et comprend des capteurs solaires et leur revêtement spécifique, une lame d’air d’environ 8 cm d’épaisseur et un parement extérieur en polycarbonate. L’air extérieur pénètre grâce à des ouvertures en partie basse, est réchauffé dans la lame d’air, avant d’être soufflé dans le bâtiment. « Cette solution se met donc en œuvre sur les parois orientées sud et donne les meilleurs résultats en mi-saison », explique Dominique Royer, directeur technique de Smac , filiale de Colas, qui installe la façade en partenariat avec Opaly . « Notre savoir-faire réside dans l’adéquation entre les besoins en chaleur du bâtiment et la production calorifique de la façade », complète Jean Maillard, directeur commercial d’Opaly. En effet, la principale difficulté pour économiser jusqu’à 30 % sur la facture de chauffage consiste à dimensionner au mieux la façade et son volume par rapport aux besoins, à la température de consigne et à l’occupation des locaux.
Une fois réchauffé, l’air est collecté dans un plénum en partie haute, puis soufflé dans le bâtiment, en prenant en compte sa température et les pertes de charges. Si l’air extérieur est pollué ou susceptible de l’être, différents filtres peuvent être mis en œuvre au niveau des entrées d’air.
- Jouer sur l’esthétique du bâtiment
Partie intégrante de l’Activeskin, la paroi comprend un textile pour afficher image ou message divers, choisi par l’occupant du bâtiment. Glissé entre les récepteurs et le polycarbonate, ce tissu laisse passer 98 % du rayonnement solaire. « Amovible et indépendant de la paroi, il peut être déposé par le haut et changé en fonction des besoins », précise Dominique Royer.
Difficile d’estimer le coût de ce dispositif, qui nécessite à chaque fois d’être adapté à un site et à une configuration précise. Le retour sur investissement est évalué entre cinq et six ans par les deux sociétés partenaires.
Le Moniteur
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Si rien n'est fait pour atténuer le réchauffement climatique, le coût des dégâts causés aux océans pourrait se chiffrer à 2.000 milliards de dollars par an d'ici 2100, selon une étude du Stockholm Environment Institute (SEI). Intitulée "Valuing the Ocean" (Estimation de la valeur de l'Océan), cette étude, réalisée par une équipe d'experts multidisciplinaire sous la coordination de l'institut suédois, a calculé les coûts d'ici 2050 et 2100 occasionnés dans 6 secteurs : la pêche, le tourisme, les tempêtes, l'élévation du niveau de la mer et l'océan comme puits de carbone.
Deux scénarios ont été retenus, l'un basé sur la poursuite d'un niveau élevé d'émissions de gaz à effet de serre qui devrait conduire à une hausse moyenne de la température de 4 degrés d'ici 2100. Dans ce cas, le coût de la dégradation des océans a été estimé à 1.980 milliards de dollars pas an, soit 0,37 % du PIB mondial. Les pertes pour le tourisme pourraient s'élever à plus de 639 milliards de dollars, celles pour la pêche à 343 milliards USD. Le second scénario inclut une réduction rapide des émissions dans les 90 ans à venir pour limiter la hausse de la température moyenne du globe à 2,2 degrés. Dans ce cas, les dommages causés aux océans ne s'élèveraient qu'à 612 milliards de dollars. Les conséquences pour le tourisme seraient de 301 milliards de dollars par an, celles pour la pêche réduites à 262 milliards USD.
"Ces chiffres ne sont que la partie émergée de l'iceberg, mais ils donnent une indication du prix de ce que l'on peut éviter en termes de futurs dégâts environnementaux dans les océans à l'échelle mondiale", a souligné le directeur du groupe de recherche sur l'économie du climat de l'institut SEI, Franck Ackerman. Plusieurs effets ont été retenus pour expliquer les dégradations :
- l'acidification accrue des océans, observée par les scientifiques comme un résultat directe de l'augmentation des niveaux de CO2 dans l'atmosphère et qui risque de réduire la capacité des mers à absorber ce gaz à effet de serre,
- le réchauffement des océans qui augmente l'intensité des cyclones dévastateurs avec pour conséquence les migrations de nombreuses espèces halieutiques vers des eaux plus fraîches,
- la multiplication des zones mortes pour cause d'afflux d'engrais azotés notamment,
- l'élévation du niveau de la mer avec la fonte des glaces qui menace les petits Etats insulaires et les mégapoles côtières,
- la pollution marine qui met en danger la biodiversité ainsi que la surexploitation des ressources des mers.
Les estimations avancées par l'étude sont loin d'être exhaustives, notent les auteurs qui soulignent cependant que l'inaction serait "dramatique".
Libération
|
|
|
|
|
|
|
|
La France est un gros consommateur de pesticides. Une consommation qui devrait être réduite de moitié dans le cadre du Grenelle de l'environnement. L'objectif sera difficile à atteindre, pourtant des alternatives existent.
Premier consommateur européen de pesticides, avec soixante-cinq mille tonnes vaporisées chaque année, la France a de fait énormément de progrès à accomplir en la matière. Les pouvoirs publics le savent, eux qui, dans le cadre du Grenelle de l'environnement, ont élaboré le plan Écophyto 2018, qui vise à réduire de moitié le recours aux substances phytosanitaires à l'horizon 2018 (par rapport aux niveaux de 2008). Les mauvaises habitudes ayant la vie dure, cet objectif sera difficile à atteindre. Il existe pourtant des alternatives, et une utilisation réduite, même dans des proportions élevées, n'altèreraient pas nécessairement la productivité.
- Les araignées, futures alliées des agriculteurs ?
Au diable les fongicides, herbicides et autres pesticides qui polluent les nappes phréatiques et menacent la santé des agriculteurs ! Des chercheurs australiens de l'Institut pour la bioscience moléculaire de l'Université du Queensland ont identifié des centaines de protéines naturelles présentes dans le venin de plusieurs espèces d'araignées (en l'occurrence l'araignée à toile entonnoir, la tarentule et l'araignée orbe). Celles-ci permettraient d'éradiquer les insectes nuisibles qui prolifèrent dans les cultures en produisant un véritable « insecticide naturel », et pourraient également servir à contrôler la propagation des parasites. Le venin de l'araignée à toile entonnoir en particulier renfermerait jusqu'à cinq cents « protéines insecticides » différentes, chacune possédant sa propre puissance et son espèce cible. En outre, chaque protéine pourrait théoriquement être « fabriquée » par les scientifiques, qui utiliseraient des bactéries pour produire des quantités suffisantes et commercialisables d'insecticides naturels. Prometteur.
- La semaine sans pesticides, un événement au succès grandissant
La septième édition se déroule du 20 au 30 mars. Initiée par l'association Générations Futures (qui en est aujourd'hui la coordinatrice) avec l'ACAP, un collectif qui regroupe cent soixante-dix organisations, la Semaine sans pesticides concerne cette année quelque vingt-et-un pays. La France bien sûr mais aussi, entre autres, l'Allemagne, la Belgique, l'Espagne, la Suisse, le Mali, le Maroc, le Sénégal et la Tunisie. Autant d'États où le mouvement « alterpesticides » progresse...
En tout, sept cents initiatives sont au programme de la manifestation, qui a vocation à faire évoluer les mentalités à travers des ateliers, des conférences-débats, des projections de films, des repas bio, des spectacles ou encore des visites. « L'axe santé est l'un des axes forts de cette septième édition », ont résumé les organisateurs sur le site Internet de l'événement. D'où un congrès exceptionnel ayant eu lieu les 23 et 24 mars, au terme duquel des doléances ont été formulées et seront transmises aux pouvoirs publics. Dans l'intérêt des agriculteurs et de l'environnement, ces derniers doivent prendre leurs responsabilités.
- L'estimation qui pourrait tout changer
Elle émane de chercheurs de l'INRA (l'Institut national de recherche agronomique, par ailleurs engagé dans le plan Écophyto 2018), selon lesquels le recours aux pesticides pourrait diminuer de 30 % sans pour autant avoir de répercussions négatives sur les rendements et les bénéfices du secteur primaire. À partir d'expertises et d'expérimentations antérieures, ces derniers ont élaboré des scénarios de pratiques culturales réduisant plus ou moins la quantité de pesticides consommée, et prenant en compte les différents modèles agricoles qui existent aujourd'hui dans nos frontières (l'agriculture intensive, encore largement majoritaire et au sein de laquelle les pesticides règnent en maîtres ; l'agriculture bio, qui ne progresse pas aussi vite que ce qu'espérait le gouvernement au début du quinquennat, et qui proscrit les pesticides ; l'agriculture raisonnée, qui cherche à maîtriser les intrants agricoles ; l'agriculture dite à bas niveaux d'utilisation de pesticides ; et enfin l'agriculture intégrée, qui met en œuvre des rotations de cultures).
Un travail qui a donné lieu à un modèle de simulation économique valable pour les grandes cultures, notamment céréalières, et qui a permis de déterminer l'utilisation optimale des pesticides dans chacune d'entre elles et dans chaque région. L'Institut a enfin calculé que, pour parvenir à cette réduction de 30 % de l'usage de produits phytosanitaires, ceux-ci devraient être taxés à 100 %. Sachant que les recettes, combinées à des subventions et à de nouvelles dispositions en matière de formation, seraient intégralement reversées à la filière agricole...
Atlantico
|
|
|
|
|
|
|
|
Dans une étude publiée dans Nature en collaboration avec Karine Lalonde et Alexandre Ouellet, respectivement doctorante et diplômé d'un doctorat à Concordia, ainsi que son confrère Alfonso Mucci de l'Université McGill, le professeur Gélinas examine la constitution chimique d'échantillons de sédiments provenant des différents océans de la planète pour montrer comment les oxydes de fer extraient le dioxyde de carbone présent dans l'air.
« Partout dans le monde, on se bat pour réduire les émissions de CO2 dans l'atmosphère afin de freiner le changement climatique. Mais lorsqu'il est question de se débarrasser du CO2 déjà présent, la nature joue un rôle important », explique le professeur Gélinas. En effet, le CO2 est extrait de l'atmosphère et piégé en toute sécurité sur le plancher océanique au terme d'une réaction naturelle qui fixe la molécule au carbone organique, à la surface des grandes étendues d'eau.
Comment ce processus de fixation se produit-il exactement ? « Pendant plus de dix ans, la communauté scientifique a retenu l'hypothèse selon laquelle de petits minéraux argileux étaient chargés de préserver cette fraction précise du carbone organique une fois qu'il avait atteint le plancher océanique », poursuit le professeur Mucci. À l'issue d'une analyse minutieuse des sédiments provenant des quatre coins du monde, Yves Gélinas et son équipe ont découvert que ce sont en fait les oxydes de fer qui captent un cinquième de l'ensemble du carbone organique déposé sur le plancher océanique.
Mais cette découverte soulève son lot d'inquiétudes, car les oxydes de fer font de plus en plus figure de molécules menacées. Comme leur nom le suggère, les oxydes de fer ne se forment qu'en présence d'oxygène. Autrement dit, il faut un écosystème côtier bien oxygéné pour qu'ils accomplissent leur mission et contribuent à l'extraction du dioxyde de carbone présent dans l'atmosphère. Or, on a observé une diminution inquiétante des concentrations d'oxygène dissous dans certains environnements côtiers – et cette tendance ne cesse de s'accentuer. Des lieux autrefois fourmillants de vie se transforment lentement en « zones mortes », où l'oxygène dans les sédiments de surface ne cesse de se raréfier. Et la faute est bien sûr attribuable à la pollution anthropique.
Les principaux cours d'eau déversent régulièrement des polluants issus des engrais agricoles et des déchets humains directement dans les lacs et environnements côtiers, engendrant une surabondance de plancton. Ces organismes vivants sont détruits à un rythme de plus en plus important et la quantité de carbone organique qui tombe dans les profondeurs aquatiques ne cesse d'augmenter, entraînant une consommation accrue d'oxygène dissous. Cela a pour effet d'exacerber le problème des faibles niveaux d'oxygène dissous. Si la quantité d'oxygène dans un environnement aquatique passe en deçà d'un certain niveau, la production d'oxyde de fer est interrompue, ce qui ampute l'environnement d'une bonne partie de sa faculté naturelle à extraire le dioxyde de carbone présent dans l'atmosphère.
Mais tout espoir n'est pas pour autant perdu. « Cette étude se présente aussi comme un plaidoyer indirect en faveur de la réduction des quantités d'engrais et autres contaminants riches en nutriments déversés dans les systèmes aquatiques », conclut Karine Lalonde.
Enerzine
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Dans une étude publiée dans la revue Nature, des chercheurs du GIGA à l’Université de Liège, associés à des équipes anglaise et allemande, dévoilent le rôle primordial joué par un complexe protéique, jusqu’alors inconnu, dans la transcription des gènes. Ces travaux mettent en lumière un nouveau mécanisme de diversité protéique dont la dérégulation pourrait contribuer au développement tumoral.
Entre le gène et la synthèse d’une protéine se déroule une cascade de réactions moléculaires multiples et diverses. Cette machinerie transcriptionnelle est complexe et finement régulée. L’ADN est transcrit en ARN messager sous l’action de l’ARN polymérase II et d’une série d’autres protéines régulatrices. Une fois synthétisé, cet ARN messager subira encore d’autres modifications, parmi lesquelles l’épissage, nouvelle étape moléculaire qui ne retient que certains fragments de l’ARN messager, les exons. L’ARN messager devenu « mature » devient ainsi le véritable support de l’information codante permettant la synthèse des protéines.
L’épissage peut permettre de générer différentes populations d’ARN messagers à partir d’un même gène. Cet épissage alternatif constitue dès lors un moyen d’augmenter la variabilité protéique, permettant à l’être humain de s’adapter à son environnement. Cette étape de régulation est aujourd’hui considérée comme primordiale par les chercheurs car il apparaît que sa dérégulation peut être directement responsable de certaines pathologies humaines, comme des cancers ou des maladies neuro-dégénératives.
Investiguant en particulier les mécanismes régulant l’épissage alternatif, les chercheurs du GIGA à l’Université de Liège ont mis en évidence un nouveau complexe protéique, inconnu jusqu’alors et qu’ils ont baptisé DBIRD. Ce complexe se situe à l’interface entre l’ARN messager encore immature et l’ARN polymérase II. Il est composé de deux protéines, Deleted in Breast Cancer protein 1 (DBC1) et ZIRD (ZNF-protein Interactig with nuclear RNPs and DBC1).
Pierre Close, Chargé de Recherches FNRS au GIGA-ULg et premier auteur de l’étude, explique : « Nos analyses ont permis d’établir que si le complexe DBIRD n’est pas directement nécessaire à l’expression de la majorité des gènes, son absence, par contre, déséquilibre la réaction d’épissage d’un grand nombre de gènes. Nous montrons que la présence de DBIRD s’avère essentielle pour que l’ARN polymerase II puisse jouer son rôle de manière adéquate, en particulier en excluant les exons riches en nucléotides A/T (adénine et thymine). »
De manière générale, cette étude met en évidence un nouveau mécanisme de contrôle de réaction d’épissage par l’intermédiaire de la régulation de la transcription par l’ARN polymerase II au niveau de certaines séquences du génome. Ces résultats sont essentiels pour comprendre comment la réaction d’épissage peut être dérégulée dans diverses situations pathologiques.
Pierre Close ajoute : « Ce mécanisme pourrait représenter un point de départ pour l’établissement de nouvelles stratégies thérapeutiques, d’autant plus que l’une des sous-unités du complexe DBIR, DBC1, est une protéine dont l’expression est largement corrélée à des cancers comme ceux de l’œsophage et du sein, et à la résistance aux traitements par chimiothérapie. Nos travaux futurs vont dès lors approfondir la question de savoir dans quelle mesure la régulation de ces réactions par DBIRD influence le développement et la progression des cancers. »
Université de Liège
|
|
|
|
|
|
|
|
Depuis les années 90, les biologistes utilisent de petites protéines fluorescentes cyan (CFP) issues d’une protéine de méduse pour visualiser les processus à l'œuvre à l'intérieur d'une cellule et les changements de conformation des molécules biologiques. Cette technique a permis d'observer des processus auparavant invisibles, comme le développement des cellules nerveuses dans le cerveau ou la propagation des cellules cancéreuses dans le corps. Malheureusement les observations sont limitées par la luminosité de ces protéines qui ne convertissement que 36 % de la lumière qu’elles reçoivent. Mais bientôt les biologistes auront à leur disposition une protéine appelée mTurquoise2 qui présente un niveau de fluorescence de 93 %.
Cette nouvelle molécule permettra d'étudier les interactions entre protéines à l'intérieur de cellules vivantes avec un niveau de sensibilité inégalé. La haute sensibilité est cruciale pour les réactions rapides où le temps nécessaire pour l'accumulation de la lumière fluorescente est très court et dans des processus biologiques où quelques protéines seulement sont impliquées et les signaux extrêmement faibles.
Pour mettre cette protéine au point, des chercheurs français de l’Institut de Biologie Structurale, et d'autres chercheurs européens, ont d’abord déterminé comment les CFP stockent l'énergie incidente avant de la réémettre sous forme de lumière fluorescente. Ils ont alors produit des centaines de CFP modifiées puis mesuré leur durée de vie de fluorescence au microscope, afin d'identifier les protéines dont les propriétés avaient été améliorées. Le détail de leur analyse est publié dans la revue Nature Communications. Selon les auteurs, leur connaissance de la dynamique structurale de la protéine permettra de produire des protéines fluorescentes améliorées avec des couleurs différentes pour d'autres applications.
Nature
|
|
|
|
|
|
|
|
Alors que rougeole et d'autres maladies infectieuses que l’on croyait presque éradiquées font leur grand retour en Europe et notamment en France en raison d' une défiance de plus en plus croissante à l’égard des vaccins, un groupe d’études sur les vaccinations a été mis en place à l’Assemblée nationale. Après un an d’auditions d’experts, les membres de cette instance viennent de rendre publiques leurs recommandations. Elles sont aux nombres de onze : l’une d’elles préconise la mise en place d’un moratoire sur les adjuvants contenant de l’aluminium.
La vaccination est devenue un véritable enjeu de société et de santé. Principal moyen de lutter efficacement contre certaines maladies, voire de les éradiquer, il est de plus en plus difficile de mettre en place des campagnes prônant le principe préventif de ces traitements. Un nombre croissant de Français se disent sceptiques et sont de plus en plus méfiants quant aux adjuvants utilisés pour fabriquer les vaccins.
Face à ce constat, le groupe d'études sur les vaccinations de l'Assemblée nationale, présidé par le député Nouveau Centre, Olivier Jardé, a pris le temps de la réflexion et a estimé que le principe de précaution était tout à fait applicable dans ce contexte. C’est à ce titre que l’une des onze recommandations qui viennent d’être publiées estime que l’aluminium et les adjuvants qui en contiennent pourraient bien être interdits dans les vaccins. Les parlementaires ont aussi souhaité que soit favorisée la recherche pour permettre de remplacer l’alumine (contenue dans les œufs) comme adjuvant. Cette dernière était à l’origine d’allergies importantes. Par ailleurs, les députés se sont prononcés pour qu’à terme, certains vaccins soient rendus obligatoires par les pouvoirs publics : tel serait le cas pour le ROR (rougeole, oreillons, rubéole) ou pour la coqueluche…
Information Hospitalière
|
|
|
|
|
|
|
|
Qu'est-ce qui a bien pu mener les Hommes à adopter la bipédie ? En l'absence de fossiles concluants, les observations de nos plus proches parents, les chimpanzés, sont un outil décisif. Elles indiquent que l'Homme se serait dressé pour porter de la nourriture dans ses mains.
Pourquoi l’Homme s’est-il dressé sur ses deux pattes postérieures ? Plusieurs théories s’opposent à ce sujet. Des observations réalisées sur des chimpanzés en proposent une autre, qui avait initialement été suggérée par Hewes en 1961, arguant que les Hommes seraient devenus bipèdes afin de pouvoir porter davantage de nourriture.
Une hypothèse très proche de celle selon laquelle nos ancêtres seraient passés de la marche quadrupède à la bipédie afin de se libérer les mains et de les utiliser pour porter des outils. Les récentes observations réalisées par des chercheurs américains, anglais, japonais et portugais sont sensiblement différentes. Elles indiquent que les mains libres auraient servi principalement à porter de la nourriture.
- La bipédie pour se libérer les mains
Ces observations ont été réalisées sur des chimpanzés à Bossou, en Guinée. Ainsi qu’ils le décrivent dans Current Biology, les scientifiques ont mis au point des tests au cours desquels les cobayes devaient aller chercher des provisions de différents types : des drupes de palmier à huile d’Afrique (Elaeis guineensis), un aliment plutôt banal pour ces primates, et des fruits du noisetier d’Afrique (Coula edulis), une denrée bien plus rare.
Quand les deux aliments étaient mis à leur disposition, les chimpanzés avaient bien sûr tendance à récupérer les fruits du noisetier et, afin d’en rapporter un maximum, se mettaient debout. Cela leur permettait non seulement de tenir les provisions avec leurs mains, mais également avec leur bouche. Ils pouvaient aussi coincer une pierre, nécessaire à l’ouverture des fruits, sous un de leurs pieds. Au cours de ces expériences, les chimpanzés adoptaient quatre fois plus la bipédie, en comparaison avec les expériences où seuls les fruits de palmier étaient proposés.
- L'hypothèse de la savane tient la corde
Cela montre que lorsque ces primates ont à leur disposition des denrées rares, ils sont capables de se mettre debout pour en profiter au maximum et il est possible que nos ancêtres se soient retrouvés dans ce genre de situation il y a quelques millions d’années.
La thèse de la savane reste cependant la plus acceptée au sein de la communauté scientifique : l’Homme se serait dressé sur ses jambes afin de dominer les hautes herbes de la savane et pouvoir surveiller ce qu’il s’y passait. La bipédie aurait en outre permis une meilleure régulation de la chaleur du corps. Néanmoins, le peu de fossiles de l’époque ne permet pas de statuer clairement sur l'origine de cet événement. Les observations réalisées auprès de nos plus proches parents sont sans doute, en attendant, quelques-uns des meilleurs indices que nous possédions.
Futura-Sciences
|
|
|
|
|
|
|
|
Le Centre Max Delbrück de Berlin et le Centre Helmholtz de Munich (Bavière) veulent développer une méthode pour entraîner les lymphocytes T à reconnaître les cellules infectées par le papillomavirus humain (hPV), dont l'infection chronique est la cause de la plupart des cancers du col de l'utérus.
Le cancer du col de l'utérus est le deuxième cancer le plus mortel chez les femmes au niveau mondial. Il existe désormais un vaccin pour prévenir son apparition, mais les femmes qui en sont malgré tout touchées sont aujourd'hui contraintes d'attendre le développement de nouvelles méthodes de traitement. Les groupes de Wolfgang Uckert et Dolores Schendel de Munich et Berlin veulent manipuler les cellules T de patientes, en leur insérant un nouveau récepteur leur permettant de reconnaître spécifiquement les cellules infectées par le hPV.
Les chercheurs ont pu développer plusieurs méthodes complexes qui leurs permettent de détecter les cellules immunitaires qui reconnaissent les cellules cancéreuses de façon spécifique et épargnent les tissus sains. Ils peuvent ensuite isoler l'information génétique correspondant au récepteur spécifique de ces lymphocytes T et l'intégrer dans les cellules immunitaires du patient. Ces dernières devraient alors reconnaître les cellules tumorales plus rapidement et les combattre de manière ciblée.
La fondation Wilhelm Sander-Stiftung finance le travail des chercheurs à hauteur de 230.000 euros. Au cours des deux prochaines années, les récepteurs de cellules T spécifiques aux tumeurs du cancer du col de l'utérus devraient être identifiés et caractérisés pour, peut-être, parvenir à une immunothérapie contre ce cancer.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Dormir plus de huit heures ou moins de six heures par nuit augmenterait nettement le risque d'accidents vasculaires, selon une étude menée sur l'ensemble des Etats-Unis et dont les résultats ont été présentés, dimanche 25 mars, lors d'un important forum de cardiologie. Ceux dormant moins de six heures par nuit voient ainsi le risque d'accident vasculaire cérébral et d'infarctus doubler. La probabilité de défaillance cardiaque est aussi multipliée par 1,6. Les personnes indiquant dormir plus de huit heures par nuit voient le risque de souffrir d'angine de poitrine doubler et celui d'avoir une maladie coronarienne augmenter de 1,1 fois.
Les chercheurs ont étudié rétrospectivement environ 3 019 personnes âgées de plus de 45 ans qui ont participé à l'enquête nationale sur la nutrition (National health and nutrition examination survey) menée auprès des ménages américains pour évaluer un éventail étendu de problèmes de santé dans le pays. Ces travaux ont fait l'objet d'une présentation à la 61e conférence annuelle de l'American college of cardiology réunie à Chicago ce week-end. "Nous avons désormais une indication que le sommeil peut avoir un impact sur la santé cardiaque", a dit le Docteur Rohit Arora, professeur à la faculté de médecine de Chicago et principal auteur de ces travaux.
Bien que les résultats de cette recherche confirment ceux d'études moins importantes faites précédemment, soulignent ces chercheurs, il s'agit du premier échantillon national représentatif de la population américaine à permettre d'établir un lien entre la durée du sommeil et la santé cardiovasculaire. C'est également la première étude à se pencher sur cinq différentes durées de sommeil en même temps. "Selon ces résultats, il semblerait que dormir de six à huit heures par nuit confère probablement le moindre risque de maladies cardiovasculaires sur le long terme", a jugé le Docteur Arora. "Il a été établi précédemment que le manque de sommeil est lié à une hyper-activation du système nerveux sympathique, à l'intolérance de l'organisme au glucose, au diabète, à un accroissement des niveaux de cortisone dans le sang, à la tension artérielle, au rythme cardiaque au repos et à des biomarqueurs d'inflammation", a-t-il ajouté, des facteurs jouant un rôle dans les maladies cardiovasculaires.
Mais la médecine s'interroge encore sur les raisons pour lesquelles le fait de dormir plus de huit heures pourrait avoir un lien avec des problèmes cardiaques. Selon le Docteur Arora, il est possible que les personnes dormant plus longtemps aient retenu davantage l'attention des médecins en faisant part plus souvent de douleurs dans la poitrine que ceux qui dorment moins de six heures de sommeil qui le plus souvent ne présentent pas ce symptôme. C'est peut-être également pourquoi ce dernier groupe connaît un taux beaucoup plus élevé d'attaques cérébrales et d'infarctus.
Le Monde
|
|
|
|
|
|
|
|
Les malades qui souffrent de défaillance cardiaque chronique ont un nouvel espoir: la greffe de cellules souches.
La greffe de cellules souches sur le coeur de malades souffrant de défaillance cardiaque chronique s'est révélée prometteuse dans un essai clinique présenté récemment à Chicago, ouvrant de nouvelles perspectives pour les recherches en thérapie cellulaire. Cette étude est la plus étendue jamais menée pour examiner le potentiel de cette thérapie chez des patients souffrant d'insuffisance cardiaque chronique qui se traduit par l'incapacité du coeur à pomper suffisamment de sang. Ces cellules ont été prélevées dans la moelle osseuse.
Les 92 participants à cette étude clinique, âgés de 63 ans en moyenne, souffraient également d'un dysfonctionnement du ventricule gauche, ont indiqué les chercheurs en présentant leurs résultats à la 61e conférence annuelle de l'American College of Cardiology (ACC) réunie à Chicago. Il s'agit de l'un des plus importants forums mondiaux de cardiologie.
L'étude a été menée de 2009 à 2011 dans cinq centres hospitaliers et les participants ont été choisis au hasard, une partie ayant été traitée avec des cellules souches et l'autre servant de groupe témoin. Les patients, très atteints, qui n'avaient plus l'option d'un pontage coronarien, avaient un ventricule gauche (principale chambre de pompage du coeur) qui repoussait moins de 45 % du volume de sang, soit nettement moins que les 55 % et davantage pour un coeur normal, a indiqué le principal auteur de la recherche, le Docteur Emerson Perin.
- Traités avec leurs propres cellules souches
Or, les médecins ont constaté que les participants traités avec leurs cellules souches de la moelle osseuse connaissaient une amélioration modeste mais significative de 2,7 % du volume de sang repoussé du ventricule gauche, par rapport au groupe non-traité. Les malades les plus jeunes ont montré de meilleurs résultats, en raison du nombre supérieur de cellules souches dans la moelle osseuse, par rapport aux patients plus âgés.
A l'aide d'un cathéter, les médecins ont greffé au total 100 millions de cellules souches dans en moyenne 15 endroits du coeur endommagé, utilisant pour cela une image électromécanique du muscle cardiaque.
Le Docteur Perin, directeur de la recherche clinique en médecine cardiovasculaire à l'Institut du coeur du Texas (sud), a souligné que les données obtenues étaient essentielles pour aider à identifier les malades pouvant le plus bénéficier de cette thérapie et pour les prochains essais cliniques. «Les résultats de cet essai clinique établissent une base solide pour mener d'autres recherches sur le lien entre la moelle osseuse, les caractéristiques des cellules souches et l'amélioration de l'état des patients», a-t-il dit.
Cette thérapie par greffe de cellules dites autologues, c'est-à-dire prélevées chez le patient, présente plusieurs avantages. Selon le cardiologue, cette procédure est relativement rapide - à peine une nuit à l'hôpital-, et sans douleur. Elle ne nécessite pas d'intervention chirurgicale car les cellules sont prélevées sous simple anesthésie locale et ré- injectées dans les heures qui suivent. En outre, les propriétés biologiques de ces cellules sont bien connues puisqu'elles sont utilisées depuis plus de quatre décennies pour des greffes de moelle osseuse dans le traitement de leucémies.
Une étude française, baptisée BONAMI menée de 2005 à 2009 avec 101 patients de moins de 75 ans, a également montré que l'injection dans le muscle cardiaque de patients victimes d'infarctus graves, de leurs propres cellules souche de moelle osseuse leur offrait une meilleure récupération et de moindres séquelles.
Les maladies cardiovasculaires sont la première cause de mortalité aux Etats-Unis avec près de 600.000 décès annuellement, selon les statistiques fédérales.
Tribune de Genève
|
|
|
|
|
|
|
|
Ce sont les premiers résultats de l’analyse de Cegedim Strategic Data (CSD) sur l’évolution du diabète de type 2 en France, à l’horizon 2022. Si aujourd’hui, la France compte 2,9 millions de patients diabétiques non insulinodépendants, selon ces premières prévisions, ils devraient être plus de 5 millions en 2022.
L’étude s’appuie sur les bases de données longitudinales de CSD (LPD), issues de son observatoire constant de 1 200 médecins informatisés, et regroupant 1,3 millions de patients. A partir de ces données longitudinales, des données officielles de l’InVS (Institut de Veille Sanitaire) et de données démographiques de l’INSEE (Institut National de la Statistique et des Etudes Economiques), CSD a réalisé des prévisions sur la période 2012-2022.
Ces premiers résultats confirment, à l’échelle de la France, les prévisions de l’OMS : Si le nombre de personnes diabétiques dans le monde s’élève aujourd’hui à 350 millions, il pourrait doubler d’ici à 2030. La France qui compte aujourd’hui 2,9 millions de patients diabétiques non insulinodépendants (Diabète de type 2) pourrait voir son taux de prévalence passer de 4,6 % en 2011 à 7,8 % en 2022. En cause, le vieillissement de la population mais aussi l’évolution de certains facteurs évitables, que l’on connaît, comme l’obésité et la sédentarité.
Santé Log
|
|
|
|
|
|
|
|
Dans une étude récente, des chercheurs de l'Université d'Uppsala en Suède ont examiné des cellules sanguines de jumeaux identiques (monozygotes) de groupes d'âges différents, à la recherche de réarrangements d'ADN (acide désoxyribonucléique). Les résultats de cette étude pourraient expliquer, partiellement, pourquoi le système immunitaire s'endommage avec l'âge.
Les chercheurs ont montré que des réarrangements importants étaient présents seulement dans le groupe des plus de 60 ans. Le plus courant est la disparition d'une partie de l'ADN (par exemple une partie d'un chromosome) dans certaines cellules sanguines. Il a été trouvé que des restructurations pouvaient être corrélées à une maladie du sang connue où la moelle épinière n'est plus en mesure de produire correctement de nouvelles cellules. Des réarrangements, moins importants et moins complexes, ont également été trouvés dans les groupes plus jeunes. Il a été montré qu'un certain nombre de ces réarrangements sont corrélés à l'âge.
Jan Dumanski, professeur au Département d'immunologie, génétique et de pathologie de l'Université d'Uppsala explique : "Nous avons été surpris de voir que 3,5 % de individus sains âgés de plus de 60 ans étaient porteurs d'altérations génétiques aussi importantes. Nous pensons que ce nous voyons aujourd'hui n'est seulement qu'une partie de l'iceberg et que ce type de variation génétique est beaucoup plus courante."
Parmi les cellules sanguines, seuls les globules blancs contiennent de l'ADN. Les chercheurs de l'Université d'Uppsala estiment que le nombre grandissant de cellules avec des altérations d'ADN parmi les personnes âgées joue un rôle dans la sénescence du système immunitaire. Si les altérations génétiques entraînent une augmentation de cellules porteuses de ces changements, la diversité des globules blancs sera réduite et cela affectera le système immunitaire.
Les chercheurs de l'Université d'Uppsala travaillent en partenariat avec l'Institut Karolinska (Suède), l'Institut de biotechnologie HudsonAlpha (Etats-Unis) et d'autres centres de recherche aux Etats-Unis, en Pologne, aux Pays-Bas et en Norvège.
Techno-Science
|
|
|
|
|
|
|
|
Une équipe de chercheurs polonais et espagnols a révélé la structure d'un complexe protéique essentiel à la biogenèse et à l'exportation de l'ARN messager (ARNm). Dans leur article paru dans la revue de l'Organisation européenne de biologie moléculaire (OEBM), l'équipe décrit que les données sur son architecture ont permis d'identifier un mécanisme par lequel le facteur d'assemblage reconnaît les acides nucléiques et s'y attache.
Le complexe protéique, connu sous le nom de complexe THO, est directement associé à la transcription, à la biogenèse et à l'exportation de l'ARNm. Bien que l'ADN soit transcrit dans le noyau de la cellule, les ribosomes qui traduisent l'ARN en protéine se trouvent dans le cytoplasme. Ainsi l'exportation de l'ARNm, un processus encore mal compris par les scientifiques, est essentielle à l'expression génétique. L'une des raisons pour laquelle les scientifiques ne comprennent pas complètement ce processus est que le complexe THO a une solubilité limitée, ce qui rend impossible sa purification pour une cristallographie à rayons X.
L'étude était soutenue par le projet 3D-REPERTOIRE («A multidisciplinary approach to determine the structures of protein complexes in a model organism»), qui a reçu plus de 13 millions d'euros au titre du domaine thématique «Sciences de la vie, génomique et biotechnologie pour la santé» du sixième programme-cadre (6e PC).
Les chercheurs ont utilisé la microscopie à électrons avec différentes techniques d'étiquetage pour générer un modèle atomique. Avec la reconstruction tridimensionnelle, ils ont découvert que le complexe n'avait pas quatre différentes protéines, comme ils le pensaient, mais bien cinq : la nouvelle protéine est responsable de la fixation à d'autres protéines pouvant également réguler le traitement, le conditionnement et l'exportation de l'ARNm. L'équipe a également localisé la portion du complexe qui se lie directement aux acides nucléiques, une région située sur l'une des protéines du complexe. Leurs résultats montrent que l'expression des gènes est indiquée par le fait que, en fonction du gène ciblé, son altération provoque une instabilité génomique.
Cordis
|
|
|
|
|
|
|
|
L'équipe de scientifiques du professeur Mamoru WATANABE de la Tokyo Medical and Dental University est parvenue pour la première fois à régénérer une zone endommagée du gros intestin de souris à partir d'une culture de cellules souches intestinales adultes.
L'épithélium intestinal est constitué de cellules jointives serrées les unes contre les autres assurant notamment l'homéostasie de l'organisme et l'absorption des nutriments. Fortement soumis à des agressions environnementales entraînant des pertes cellulaires, ce tissu possède une capacité importante de régénération assurée par des cellules souches unipotentes localisées dans la partie inférieure des cryptes intestinales ou cryptes de Lieberkühn. Habituellement chacune de ces cryptes contient entre quatre et six cellules souches unipotentes produisant environ 300 cellules d'un seul type par jour. Le renouvellement très rapide des cellules de l'épithélium intestinal constituait un obstacle important à leur mise en culture et les récentes tentatives de transplantation aboutissaient généralement à une périclitation du tissu en cinq jours.
Les scientifiques japonais de la Tokyo Medical and Dental University ont prélevé une seule cellule souche de crypte intestinale présentant le marqueur LGR5. Trois protéines (Wnt3a, HGF et BSA) ont été alors ajoutées au milieu de culture liquide habituellement employé pour les cellules de l'intestin grêle. Le développement très rapide de la cellule prélevée a permis d'obtenir après huit jours un million de cellules unipotentes.
L'étape suivante des travaux de recherche a été de tester la transplantabilité du tissu obtenu. Les chercheurs ont ainsi transplanté ces cellules dans des zones intestinales de souris sévèrement endommagées par des ulcères. Dès la fin de l'opération, un nombre important de cellules épithéliales a été produit avant d'aboutir un mois plus tard à une régénération complète du tissu. D'après le professeur WATANABE, cette technique pourrait mener au développement de nouveaux traitements pour certaines maladies inflammatoires sévères telle que la maladie de Crohn, caractérisée notamment par des lésions importantes du tissu épithélial.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Cette équipe de chercheurs de la Duke University est parvenue à déterminer la structure de la molécule-clé qui transporte la chimiothérapie dans les cellules. C’est un pas vers le développement de médicaments plus efficaces avec moins d'effets colatéraux sur les tissus sains. Des conclusions rapportées dans l’édition du 11 mars de la revue Nature.
«Connaître la structure et les propriétés de cette molécule « transporteur » peut être une clé pour modifier le principe d'action de certaines chimiothérapies», explique l'auteur principal, le Professeur Seok-Yong Lee, assistant professeur de biochimie à l'Université Duke. Cette molécule, appelée « a concentrative nucleoside transporter » (ou transporteurs de nucléosides concentrants) agit en déplaçant les nucléosides, les blocs de construction d'ADN et d'ARN, de l'extérieur vers l'intérieur des cellules. Elle transporte également des médicaments de chimio à travers les membranes cellulaires. Une fois à l'intérieur des cellules, les médicaments nucléosides sont transformés en nucléotides qui sont incorporés dans l'ADN de manière à prévenir la division et le développement des cellules tumorales.
En découvrant cette structure de la molécule transporteur, les chercheurs pensent qu'il est possible d'améliorer l’efficacité des médicaments sur certains types de tissus. « Maintenant nous savons que la molécule transporteur dispose de trois formes qui reconnaissent les différents médicaments et adaptées aux différents tissus ». Ils pensent pouvoir améliorer ainsi les interactions entre le transporteur et le médicament et avoir besoin de moins de médicament pour traiter les cellules tumorales. "Connaître la forme des transporteurs permettra aux scientifiques de concevoir des médicaments bien reconnus par ce transporteur ». Alors que les cellules saines ne se divisent pas aussi souvent que les cellules tumorales, diminuer la quantité de médicament va permettre de mieux épargner les cellules saines.
Les chercheurs ont étudié les molécules transporteuses de Vibrio cholerae, une bactérie en forme de virgule, proche des molécules transporteurs chez l'Homme. La prochaine étape sera d'essayer de comprendre ce qui confère à la molécule sa capacité à reconnaître certains médicaments de chimiothérapie et, finalement, de concevoir des médicaments qui peuvent facilement pénétrer dans les cellules.
Santé Log
|
|
|
|
|
|
|
|
Une nouvelle technique permet de savoir avec davantage de certitude si une personne sortie du coma est consciente ou pas.
Lorsqu’une personne se réveille après un coma, elle peut évoluer vers différents états cliniques. Si elle tombe dans un état végétatif, elle conserve ses réflexes, peut respirer sans assistance et garde les yeux ouverts mais elle n’a pas conscience de son environnement. En revanche, en état de « conscience minimale », elle montre parfois des signes fugaces de conscience : bien qu’incapable de communiquer de façon suivie, elle peut sourire à un proche.
Son pronostic vital est alors meilleur, et des soins spécifiques peuvent être entrepris pour l’aider à récupérer. Cependant, ces deux états sont souvent difficiles à distinguer : le diagnostic serait erroné dans 40 % des cas. Pour les discriminer, une équipe internationale a mis au point une nouvelle méthode combinant la stimulation cérébrale transcrânienne et l’électroencéphalographie.
Une méthode très différente des « tests de conscience » actuels. « La plupart des tests reposent en effet sur une tâche cognitive que l’on demande au patient de réaliser mentalement - par exemple imaginer jouer au tennis - et qui requiert un état de conscience, explique Lionel Naccache, neurologue à l’hôpital de la Pitié-Salpêtrière. Si l’on observe une signature cérébrale de réalisation de la tâche, on peut alors affirmer que le patient est conscient. Toutefois, il est difficile d’interpréter un résultat négatif : le patient peut ne pas comprendre le langage, être endormi, etc. La méthode élaborée par Marcello Massimini, de l’université de Milan, et ses collègues ne présente pas cette limitation. »
Cette dernière, en effet, ne sollicite pas les capacités de communication du patient. Elle se fonde sur l’hypothèse selon laquelle la conscience repose sur des interactions rapides entre des zones du cortex et des zones du thalamus, situé en profondeur dans le cerveau. Pour la détecter, les chercheurs positionnent une bobine magnétique sur le crâne du patient.
Cela induit un courant qui stimule le cerveau, une technique appelée « stimulation cérébrale transcrânienne ». Dans le même temps, ils enregistrent leur activité cérébrale avec un électroencéphalographe.
Pour prouver l’efficacité de cette méthode, l’équipe a sélectionné 12 patients sortis du coma, pour lesquels un diagnostic solide pouvait être posé à l’aide d’un examen neurologique approfondi et répété. Parmi eux, 5 ont été diagnostiqués en état végétatif, 5 autres en état de conscience minimale et 2 en « syndrome de verrouillage », ou « locked-in syndrom », un état caractérisé par une paralysie totale du corps mais une pleine conscience de l’environnement.
Une fois ces patients diagnostiqués, les neurologues ont testé sur eux leur nouvelle méthode, et confirmé pouvoir distinguer les patients entre eux. De fait, chez les patients en état végétatif, la stimulation provoque une activité cérébrale très localisée, comparable à celle observée pendant le sommeil ou lors d’une anesthésie, donc lorsque nous ne sommes pas conscients. En revanche, chez les patients en état de conscience minimale, elle déclenche une activité complexe, caractéristique d’un état de conscience, impliquant de nombreuses zones du système thalamocortical. Une activité semblable est observée chez les deux patients en syndrome de verrouillage.
La Recherche
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Lors du sommet « Aviation et environnement » de la semaine dernière, les professionnels ont réaffirmé leur volonté de rendre le transport aérien plus propre. Ils souhaitent notamment accélérer la commercialisation des biocarburants.
Les constructeurs aéronautiques sont tout disposés à rendre la filière aérienne moins polluante. Comme les représentants des aéroports, des compagnies aériennes et des motoristes, ils l'ont à nouveau affirmé lors du sommet « Aviation et environnement » qui s'est tenu à Genève la semaine dernière. Mais ils n'entendent pas en faire les frais. Depuis l'instauration le 1er janvier dernier d'une taxe carbone sur tous les vols atterrissant ou décollant d'un pays de l'Union européenne, tous les grands pays non européens (Etats-Unis, Russie, Inde, Chine) s'y opposent. Parfois en menaçant d'annuler leurs commandes auprès du constructeur européen Airbus. C'est pourquoi, dans une déclaration commune publiée lors de ce sommet, la profession dans son ensemble en appelle aux gouvernements et aux régulateurs pour qu'ils imposent des règles globales s'imposant à tous sans distorsion de concurrence. Ils réclament aussi du soutien à la recherche et développement, à l'amélioration des infrastructures et au développement d'agrocarburants.
- Croître sans polluer plus
La filière est consciente qu'elle ne pourra poursuivre sa croissance qu'au prix d'une réduction significative de ses impacts sur l'environnement, à commencer par ses émissions de CO2. Si celles-ci ne représentent aujourd'hui qu'entre 2 et 4 % des émissions mondiales, la croissance annuelle du trafic de 5 à 6 % attendue pour les prochaines années laisse présager d'un accroissement de ce poids. A moins, comme dans d'autres secteurs industriels, de parvenir à « découpler » la croissance des émissions. Ou a minima, de réduire le coefficient de corrélation. Ce qui est déjà le cas, puisque la consommation de carburant n'a augmenté que de 3 % ces dix dernières années pour une hausse du trafic de 45 % sur cette période. A Genève, les professionnels ont également rappelé le poids économique du secteur (56,6 millions d'emplois et plus de 2200 milliards de chiffre d'affaires), et son rôle dans le développement de l'industrie touristique. De nombreux facteurs sont susceptibles de rendre le transport aérien plus propre : matériaux composites plus légers, formes plus aérodynamiques, réorganisation de l'espace aérien et rationalisation des routes, mais aussi combustibles moins polluants.
- Le rôle essentiel des biocarburants
Les agrocarburants peuvent être fabriqués à partir de matières végétales, jatropha, caméline ou des espèces d'eucalyptus adaptées aux zones arides, impropres à toute autre culture. Ils peuvent également être fabriqués à partir de déchets organiques ou encore de micro-algues, qui présentent l'avantage de ne pas empiéter sur les terres arables mais en sont encore au stade du laboratoire.
La Commission Européenne s'est engagée à acheter aux producteurs d'agrocarburants 4 % du volume total utilisé dans l'aviation à l'horizon 2020. Pour accélérer la mise sur le marché, les trois principaux constructeurs, Airbus, Boeing et Embraer, membres du « groupement des utilisateurs de carburant durable pour l'aviation » qui compte 23 entreprises, ont annoncé jeudi 22 mars leur décision de se regrouper pour s'adresser d'une même voix aux gouvernements, producteurs et autres parties prenantes. Cette coopération porte sur l'élaboration de normes industrielles et de méthodologies pour mesurer le poids en carbone et en énergie des différents carburants. Elle prévoit aussi l'établissement dans plusieurs régions du monde, de chaînes de valeurs complètes intégrant producteurs, raffineries, compagnies aériennes et législateurs et visant une commercialisation rapide. Ces trois constructeurs ont déjà réalisés de nombreux vols tests utilisant les biocarburants agréés par les organismes internationaux de normalisation, mais il sera impossible de passer à l'étape suivante sans le soutien financier et réglementaire des gouvernements.
Selon l'agence internationale du transport aérien (Iata), l'utilisation de biocarburants, couplée à d'autres mesures comme de nouveaux systèmes de gestion du trafic aérien (programme Sesar en Europe) qui permettent d'optimiser les routes aériennes, permettrait de diminuer les émissions de CO2 de 50 % en 2050 par rapport à 2005.
La Tribune
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|