|
|
|
|
|
NUMERO 836 |
|
|
|
|
|
|
|
Edition du 26 Février 2016
|
|
|
|
|
Edito
L’hydrogène : clef de voûte de l’avenir énergétique
Le 5 février dernier se terminaient à Paris les journées Hyvolution de Paris pour promouvoir « l'énergie hydrogène ». Réunissant plus de 400 participants, cette rencontre désormais incontournable des acteurs de l'hydrogène a été l'occasion de faire le point sur les avancées dans le domaine de l'utilisation de ce gaz aux innombrables potentialités. « La combustion de l'hydrogène ne produit aucun gaz carbonique, mais de l'eau », a notamment souligné Pascal Mauberger, président de l'Association française pour l'hydrogène et les piles à combustible (AFHYPAC), par ailleurs président du directoire de McPhy Energy, entreprise créée en 2008 pour développer de nouveaux modes de « stockage » de l'énergie.
Identifié dès le XVIIe siècle comme un gaz inflammable, l’hydrogène fut d’abord surnommé « air explosif ». Il fut longtemps utilisé, mélangé (notamment au méthane), comme gaz de ville et les lampadaires du XIXe siècle puis les voitures à gazomètres utilisaient déjà de l'hydrogène.
Aujourd'hui, la consommation mondiale d'hydrogène atteint 60 millions de tonnes par an (666 milliards de m3), ce qui représente environ 1,5 % de la consommation primaire mondiale d'énergie (12,3 gigateps par an). Comme l'hydrogène produit, à quantité égale, trois fois plus d'énergie que le pétrole, cette production mondiale d'hydrogène représente déjà un potentiel énergétique de l'ordre de 180 Mteps, soit 70 % de la consommation d'énergie totale de la France. Un kilo d'hydrogène représente 39 kWh d'énergie et deux kilos d'hydrogène par jour suffiraient à satisfaire les besoins énergétiques en électricité d'une famille moyenne.
Le principe de la pile à combustible, qui permet de produire de l’électricité à partir de l’oxydation de l’hydrogène couplée à la réduction d’un oxydant, est connu depuis…1839. Mais pendant très longtemps l’usage de ces piles, complexes et très coûteuses, a été limité à la recherche et à quelques domaines précis, comme l'aérospatiale.
Mais, grâce à de récents progrès technologiques, les voitures utilisant l’hydrogène, bien qu’elles soient encore trois à quatre fois plus chères qu’un véhicule thermique de même catégorie, commencent à arriver sur le marché. Le groupe japonais Toyota a lancé, en 2014, une voiture à hydrogène (la Mirai), alimentée par des piles à combustible. Depuis, d’autres grands constructeurs ont suivi et notamment Mazda, BMW et Honda. La berline Honda Clarity à pile à combustible fera son entrée sur le marché californien d’ici la fin de 2016 en location seulement, pour un montant mensuel de l’ordre de 500 dollars. Dans un deuxième temps, cette voiture sera proposée à la vente pour un prix de 60 000 dollars. Le grand avantage de ces voitures à hydrogène est qu’elles combinent l’autonomie d’une voiture thermique (environ 500 km) et l’absence totale d’émissions de CO2 de la voiture électrique. En outre, contrairement à cette dernière, le plein d’hydrogène se fait en quelques minutes, comme un plein d’essence.
Mais l'hydrogène présente un autre intérêt, il est un excellent vecteur pour le transport et le stockage de l'énergie. Aujourd'hui, les centrales électriques françaises sont en surproduction. Or, en utilisant cette électricité, il est possible de diviser les molécules d'eau (H2O) par électrolyse et de stocker l'hydrogène récupéré. Cet hydrogène peut ensuite être reconverti en énergie... Ce processus, surnommé « Power-to-Gas », permet de stocker à grande échelle l'énergie excédentaire produite par les panneaux solaires ou les éoliennes. A Hambourg, en Allemagne, la plus puissante installation P2G au monde, vient d'être mise en service. Le prototype, développé dans la ville hanséatique, atteint une puissance de 1,5 MW.
Elle peut produire 290 m3 de dihydrogène par heure, la quantité qui est ensuite introduite dans le réseau de gaz de la région métropolitaine. En France, le Power To Gas va être testé en grandeur nature par les acteurs gaziers français à Fos-sur-Mer (Bouches-du-Rhône) dans les mois qui viennent. GRTgaz, le gestionnaire du réseau de transport local de gaz, va ainsi installer un « démonstrateur » sur la plate-forme industrielle du port de Fos-sur-Mer. Avec un objectif : produire du méthane de synthèse, un équivalent du gaz naturel, à partir des surproductions d'électricité sur le réseau de RTE (Réseau de transport électrique). Baptisé Jupiter 1000, ce projet devrait entrer en service en 2018.
L’hydrogène pourrait également révolutionner un autre domaine en plein essor, celui de la cogénération, c’est-à-dire de la production conjointe de chaleur et d’électricité, technique appelée à un grand avenir, tant dans le secteur industriel que domestique. Ce n’est d’ailleurs pas un hasard si l’énergéticien Engie était bien présent au salon « Hyvolution ». Engie a en effet bien compris que l’hydrogène, associé au Gaz naturel - c'est à dire le méthane, permettait de concevoir des systèmes très efficaces de cogénération pour alimenter maisons et immeubles en chaleur et énergie.
« La micro-cogénération est une solution destinée au secteur résidentiel, déjà en déploiement au Japon, explique Stéphane Hody, ingénieur-expert à l’Engie Lab Crigen, un des 7 laboratoires d’Engie, spécialisé dans le gaz naturel. Le gaz naturel est transformé via un réformeur principalement en hydrogène et en CO2. Puis l’hydrogène est converti avec une pile à combustible en électricité, laquelle produit aussi de la chaleur lors de l’opération ». Chaleur et électricité sont « co-générées », à raison d’environ 40 % de l’énergie primaire convertie en électricité et 55 % en chaleur, toutes les deux utilisées directement sur place pour les besoins domestiques.
Grâce à ce processus de cogénération « à la source », l’énergie est ainsi utilisée de manière décentralisée et avec rendement inégalé, alors que les solutions actuelles de centrales cycle combinés gaz, les centrales électriques fonctionnant au gaz naturel, convertissent 60 % de l’énergie en électricité mais laissent 40 % de la chaleur co-générée se perdre dans la nature.
Reste que l'hydrogène, produit aujourd'hui, provient à 95 % des produits pétroliers, via la technique du vaporeformage qui consiste à casser les molécules de méthane à grand renfort d’énergie. Mais depuis trois ans, deux ruptures technologiques majeures sont en train de bouleverser les perspectives de production propre et à grande échelle d’hydrogène. La première avancée concerne la production massive d’hydrogène solaire. En 2013, des chercheurs de l’Université de technologie de Delft (Pays-Bas) et du Helmholtz-Zentrum Berlin (HZB) ont couplé une cellule solaire simple et une photoanode en oxyde métallique, et ont réussi à atteindre un taux de conversion de 5 % de l’énergie lumineuse en hydrogène.
Les scientifiques ont ainsi obtenu un moyen relativement simple et peu onéreux de convertir de l’énergie solaire en hydrogène grâce à un procédé de photosynthèse artificielle. Une fois l’hydrogène stocké, on peut s’en servir sous différentes formes : dans des piles à combustible ou encore sous forme de méthane, selon l’usage visé. Avec le rendement actuel de 5 % dans la conversion de la lumière solaire en hydrogène, et en prenant une performance solaire de l’ordre de 600 W/m2 en Allemagne, un peu plus d’une trentaine de mètres carrés suffiraient pour dépasser la barre du kilowattheure stocké chaque heure sous forme d’hydrogène.
Plus récemment, une équipe de recherche belge, dirigée par le professeur Johan Mertens, a remporté le Febeliec Energy Award en présentant un nouveau dispositif de photosynthèse artificielle conçu pour produire de l'hydrogène. Jusqu'à présent, on passe par des cellules photoélectrochimiques (appelées aussi cellules PEC) qui utilisent de l'eau. Cette technologie est encore trop chère pour concurrencer l'hydrogène produit sur base de sources fossiles.
L'équipe d'ingénieurs vise des dispositifs à petite échelle et faibles coûts, à partir de l'énergie solaire et de l'humidité dans l'air. Leur solution se base sur un panneau solaire poreux, qui convertit la lumière du soleil en énergie électrique. Avec des électrocatalyseurs et de l'eau, on fabrique ensuite de l'hydrogène. L'eau dont l'installation a besoin pour produire de l'hydrogène provient de l'humidité de l'air. Selon ces scientifiques, cette solution pourrait en principe être utilisée également dans le désert, car même dans ces régions très sèches, il y a environ 5 grammes d'eau dans chaque mètre cube d'air.
Bien que l'efficacité de ces panneaux solaires à hydrogène reste modeste pour l’instant, environ 10 %, contre 20 % pour un panneau solaire classique, il est tout de même possible, en une journée ensoleillée, avec un toit solaire d’environ 70 m², de produire assez d'hydrogène pour faire rouler sur une distance de 100 kilomètres une voiture à hydrogène.
Mais une autre voie pourrait également révolutionner d’ici quelques années la production massive et propre d’hydrogène à des fins énergétiques, celle de l’exploitation des sources naturelles d’hydrogène présentes un peu partout sur Terre. Je m’étais fait l’écho dans cette lettre, en avril 2013, d’un communiqué, publié par l’IFPEN, dans lequel cet institut de recherche révélait qu'il existait des émanations naturelles continues d'H2 dans différentes régions du globe et qu'il lançait un programme de recherche visant à évaluer la faisabilité d'une exploitation industrielle à grande échelle de ces sources naturelles d'hydrogène (voir IFP Energies nouvelles).
Ces chercheurs français avancent des preuves d'émissions en quantité importantes d’hydrogène naturel sur les continents de la planète. L’un des chercheurs, Alain Prinzhofer, qui a passé 20 ans à l’Institut français du pétrole et des énergies nouvelles (IFPEN), est persuadé que ces sources naturelles d’hydrogène sont bien plus nombreuses qu’on ne l’imaginait et il a publié, en mai 2015, avec Eric Deville, géologue à l’IFPEN, un livre intitulé « L’hydrogène naturel, la prochaine révolution énergétique ? » qui constitue un vibrant plaidoyer en faveur de l’exploitation de cet hydrogène terrestre.
Alain Prinzhofer souligne que la présence d’émanations d'hydrogène naturel dans les océans était connue depuis 40 ans mais ces sources, situées à plus de 4 000 mètres de profondeur, sont malheureusement inexploitables à un coût raisonnable. Mais tout a changé en 2010, lorsqu’Alain Prinzhofer, à l’invitation de scientifiques russes, a pu constater l’existence d’une source terrestre d’hydrogène en Russie, d’où s’échappaient plus de 40 000 m3 par jour de dihydrogène !
Alain Prinzhofer précise toutefois que ces flux d’hydrogène sont extrêmement diffus et ne sont pas récupérables, tels quels, industriellement. En revanche, ces sources terrestres d’hydrogène seraient détectables dans toutes les régions du monde. En France, elles seraient présentes en Normandie par exemple, précise Alain Prinzhofer. Reste à comprendre d’où vient cet hydrogène et comment il se forme dans les entrailles de la Terre. A ce sujet, bien que plusieurs hypothèses coexistent, l’une d’entre elles a la faveur de la majorité des scientifiques, celle selon laquelle l’eau subit une réduction chimique. Les chercheurs de l'IFPEN pensent que la genèse de l’hydrogène est liée à un agent extérieur qui réduit l’eau H2O en H2. Cet agent est probablement le fer, présent à l’état naturel dans divers minéraux sous forme de fer ferreux.
Le fer ferreux peut réduire l’eau et permet la genèse de l’hydrogène en se transformant en fer ferrique. Or, dans le sous-sol, certains minéraux en contiennent, comme par exemple la sidérite, un carbonate présent dans la croûte continentale. Le plancher océanique contient quant à lui de l’olivine. Ce minéral, principal constituant du manteau supérieur, peut libérer du fer. C’est ce processus qui pourrait expliquer que l’on trouve aussi des sources d’hydrogène naturel au fond des océans. Des expériences réalisées en laboratoire ont par ailleurs montré que le fer ferreux au contact de l’eau produisait bien de l’hydrogène, ce qui confirme cette hypothèse quant au processus de production de cet hydrogène naturel.
La génération de cet hydrogène pourrait avoir lieu ainsi en de nombreux sites à quelques dizaines de kilomètres de profondeur. Produit ainsi en continu, cet hydrogène devient potentiellement une ressource renouvelable, un flux, un non un stockage fossile, comme le pétrole ou le méthane ! Au contraire de ces deux ressources, l'hydrogène ne peut pas rester dans le sol sur des temps géologiques aussi longs car il est trop volatil et réactif. Mais il pourrait tout de même transiter par des poches pendant quelques centaines d’années, à des profondeurs très variables.
L’exploitation du dihydrogène emprisonné dans le sous-sol peut se faire à l'aide de techniques proches de celles déjà utilisées pour l’exploitation et la production du pétrole ou du gaz. En outre, si l'hydrogène est associé à de l'eau dans un aquifère, il pourrait être possible de coupler la production d’hydrogène avec de la géothermie.
Il existe déjà une région où la production d'hydrogène naturel a commencé. Au Mali, un forage de 200 mètres de profondeur permet de produire du dihydrogène pur à 98 % depuis 2011 et 18 autres puits sont prévus d’ici 2017. L’électricité obtenue à partir de cet hydrogène est 5 fois moins chère que celle du marché malien. Au Kansas, un producteur a également réalisé un forage dans un gisement et réfléchit à son exploitation.
« Si cette présence d’hydrogène naturel en grande quantité est confirmée et si cet hydrogène peut être récupéré et exploité relativement facilement, nous tiendrions enfin la source d’énergie qui permette l’avènement de cette économie basée sur l'hydrogène préconisée par Jeremy Rifkin » souligne Alain Prinzhofer.
Evoquons enfin une troisième voie, elle aussi très prometteuse, qui pourrait permettre une production massive et propre d’hydrogène, la photosynthèse contrôlée à partir d’algues vertes. Pendant le processus de photosynthèse, l’eau est séparée, entre autres, en ions hydrogène (H+) et en électrons (e–). Dans le cas des algues vertes, ces 2 éléments se réunissent pour former du dihydrogène (H2), exploitable comme source d’énergie. Ce processus est connu et étudié depuis plus de 15 ans mais plusieurs expériences récentes réalisées dans différents laboratoires en Suède, en Suisse et en France, ont montré qu’il est possible, en utilisant judicieusement certaines enzymes spécifiques appelés hydrogénases, de concevoir un système capable de produire de l’hydrogène en quantités industrielles avec des algues vertes, de l’eau et du soleil. Ces premiers bioréacteurs à hydrogène devraient voir le jour vers 2020.
C’est dans ce contexte en pleine effervescence scientifique que l’ADEME vient de publier i l y a quelques jours son dernier avis, intitulé « L’hydrogène dans la transition énergétique » (Voir ADEME). Dans ce document prospectif, l’ADEME souligne que l’utilisation de l’hydrogène comme carburant et comme vecteur énergétique présente l’avantage considérable de ne pas déstabiliser le réseau électrique et de pouvoir contribuer, au contraire, à une gestion souple et intelligente de la distribution d’énergie. L’ADEME confirme que, pour limiter les investissements élevés nécessaires au stockage stationnaire d’hydrogène, la solution, à présent très bien maitrisée du « Power-to-Gas », est pertinente et présente des perspectives de développement considérables au niveau européen
L’ADEME souligne toutefois que, pour prendre toute sa place dans la transition énergétique mondiale, tout en contribuant activement à la lutte contre le réchauffement climatique, l’hydrogène doit être produit par électrolyse de l’eau à partir d’énergies renouvelables. « Le procédé d’électrolyse permet de produire de l’hydrogène à partir d’électricité, lorsque par exemple celle-ci est abondante et décarbonée, l’hydrogène étant ensuite stocké en station », explique l’Ademe. « L’hydrogène peut alors être introduit dans le réservoir des véhicules à la demande et permet la recharge de la batterie sans sollicitation du réseau électrique ».
Mais l’ADEME souligne également, de manière très intéressante, que « c’est à une échelle locale que l’hydrogène peut apporter de la flexibilité aux systèmes énergétiques et que les bénéfices environnementaux liés à son emploi seront les plus grands ». Cette dimension locale est fondamentale car elle peut permettre à l’hydrogène de devenir un véritable facteur de développement local et un puissant levier de gestion intelligente et durable des ressources énergétiques d’un territoire.
C’est bien sur cette production locale d’hydrogène en partant d’énergie renouvelable (soleil ou vent) en le stockant sous forme solide ou liquide, peu onéreuse et sans danger, que je travaille ardemment actuellement pour réaliser ma future maison autonome. Je suis heureux que quelques grandes écoles françaises et étrangères aient décidé de s’associer à mon expérimentation. Comme je vous l’ai promis le 2 Octobre dernier, (Voir Edito : Construire la maison du Futur totalement autonome : tel est le projet passionnant qui m'anime), je ferai le point sans quelques semaines sur cette opération qui doit se déployer sur 5 ans.
C’est finalement le rêve visionnaire décrit il y a presque un siècle et demi par Jules Verne, qui est en train de se réaliser : en combinant les potentialités nouvelles de la production propre et massive d’hydrogène à partir, de la Terre, du soleil et du vivant et en concevant l’hydrogène en synergie intelligente avec le développement des énergies renouvelables et dans le cadre d’une production diversifiée et décentralisée d’énergie, nous pouvons accéder de manière décisive à la nécessaire rupture énergétique mondiale qui doit nous amener vers une économie largement décarbonée d’ici le milieu de ce siècle.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
La technologie vient de plus en plus en renfort, dans nos vies connectées, pour ne pas oublier des rendez-vous, des anniversaires, ou retrouver le nom d'une chanson. Mais à l'avenir, les technologies cognitives vont permettre de créer une "mémoire de secours" qui pourra tout conserver, y compris ce qu'on a complétement oublié…
Un ingénieur d'IBM, James Kozloski, spécialiste de la neuroscience appliquée à l'informatique, a imaginé un système de ce type, et même déposé un brevet, rapporte le site The Atlantic. Pourtant, prévient-il d'emblée, la mémoire humaine et la mémoire d'un ordinateur ne fonctionnent pas de la même façon. "Les humains n'ont pas de pointeurs ou d'adresses à fouiller pour retrouver des données", rappelle-t-il.
Kozloki planche sur un assistant personnel qui apprend la vie de son utilisateur et peut donc boucher les trous lorsque celui-ci cherche un mot, un nom, une adresse. Une sorte de mémoire auxiliaire, nourrie au machine learning, intégrée dans un terminal à porter sur soi, ou contenue dans un objet de sa maison, dans sa voiture, ou via un capteur sur son lieu de travail.
Ce système serait capable de terminer vos phrases avant vous. Kozloski n'imagine pas un usage très grand public de cette technologie, mais estime qu'elle pourrait aider des personnes âgées ou atteintes de pertes de mémoire, pour ne pas les enfermer dans leur bulle lorsque les premiers symptômes d'une maladie apparaissent.
Rien de complètement irréaliste dans ce scénario imaginé il y a quelques années par la série télévisée britannique d'anticipation Black Mirror : Watson, l'intelligence cognitive d'IBM, est déjà intégrée à des bracelets connectés, des produits électroménagers et même… des jouets pour enfants.
L'assistant Alexa d'Amazon, contenu dans l'enceinte Echo, écoute aussi son environnement pour apprendre de son utilisateur. Et Samsung a mis au point un système moins perfectionné permettant aux personnes atteintes de la maladie d'Alzheimer de recevoir des informations contextuelles pour les aider à communiquer.
Article rédigé par Georges Simmonds pour RT Flash
The Atlantic
|
|
|
|
|
|
|
|
La Darpa, centre de recherche de l'armée américaine, travaille sur un projet futuriste de puce implantable dans le cerveau qui pourrait permettre aux soldats de communiquer directement avec les ordinateurs. La puce pourrait recevoir des informations sur la position de l’ennemi, des relevés cartographiques et des instructions de combat.
Avec cette puce, les soldats-cyborgs seraient de meilleurs combattants et mieux protégés. « Aujourd’hui, les meilleures interfaces cerveau-ordinateur sont comme deux supercalculateurs qui essaient de communiquer entre eux avec un vieux modem de 300 bauds », a déclaré Phillip Alvelda, manager du programme Neural Engineering System Design de la Darpa.
« Imaginez ce qui sera possible quand nos outils pourront créer une voie de communication entre le cerveau humain et l'électronique moderne ». Le nouveau programme annoncé cette semaine par la DARPA a pour ambition de développer l’interface neurale capable de relier le système nerveux biologique avec un ordinateur et de fournir « une qualité de signal et une bande passante exceptionnelles pour le transfert de données » entre un cerveau humain et un système numérique. L’interface neurale sur laquelle travaille l’Agence pour les projets de recherche avancée de défense, qui s’intéresse aux applications des technologies émergentes à des fins militaires, ne devra pas dépasser un centimètre cube et l’équivalent de deux pièces d’un centime en épaisseur.
Il existe déjà des interfaces neuronales approuvées pour un usage sur l’homme, mais elles ne sont pas encore assez précises et l’information fournie à l’utilisateur reste très embrouillée, avec beaucoup de bruit et peu de données utiles. La Darpa veut améliorer la technologie pour que le système puisse communiquer clairement et individuellement avec un maximum d'un million de neurones situés dans une région spécifique du cerveau. Des chercheurs de la Northwestern University ont déjà réussi à faire bouger une main paralysée en utilisant un dispositif capable de transmettre directement un message du cerveau aux muscles de la main.
Article rédigé par Georges Simmonds pour RT Flash
Technewsworld
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des scientifiques issus de l’US Naval Research Laboratory (NRL) sont parvenus à mettre au point un nouveau matériau transparent et plus résistant que l'acier. Le Docteur Jas Sanghera, chef du projet à l'US Naval Research Laboratory, déclare qu'il s'agit "en fait d'un minéral, de l’aluminate de magnésium. L’avantage, c’est que c’est bien plus résistant et plus solide que le verre."
Le Naval Research Laboratory (NRL) a développé une suite de processus pour créer ce matériau, le Spinel, sorte d’alumnium transparent (MgAl2O4) en céramique, dont les qualités sont supérieures au verre - saphir - et d'autres matériaux traditionnellement utilisés pour des applications telles que les lasers à haute énergie et les armures légères.
Le minéral est d’abord mis en poudre puis chauffé à très haute température afin qu’il devienne complètement transparent, avant d’être placé dans une presse pour lui donner la forme adéquate. Selon les chercheurs, le Spinel serait résistant au choc, à l’inverse du verre : lorsque l'alumine est ajoutée au mélange pendant le processus de fabrication du verre, des cristaux de dioxyde de silicium se développent à la surface du verre, ce qui annihile la propriété de transparence du verre.
Ces presses à chaud, utilisées pour insérer de la poudre de spinel dans des matériaux solides transparents, permettent de créer un procédé comprenant un revêtement par pulvérisation qui garantit la pleine densité et la transparence. En outre, le procédé a été conçu pour éliminer tous les risques de réactions chimiques indésirables. Le spinel transparent offre une excellente transmission optique dans la gamme de longueur d'onde visible et l'infrarouge moyen.
Ce nouveau procédé, utilisant de l'oxygène gazeux et une spatule laser, permet donc de produire un verre à la fois léger et particulièrement résistant qui devrait trouver de multiples applications en électronique grand public mais également dans le domaine militaire…
Article rédigé par Georges Simmonds pour RT Flash
US Naval Research Laboratory
|
|
|
|
|
|
|
|
Les spécialistes du laboratoire des méta-matériaux de l'Université national des technologies de l'information, de l'optique et de la mécanique de Saint-Pétersbourg (ITMO) et de l'Institut de recherche Girikond, ont montré qu'il est possible de créer un système efficace de transmission d'énergie sans fil en utilisant des matériaux diélectriques en céramique. Ces scientifiques ont réussi à allumer une ampoule DEL sans fil à une distance de 20 à 30 cm.
En 2007, Marin Soljačić, professeur à l'Institut de technologie du Massachusetts (MIT), avait publié un article dans la revue Science, dans lequel les scientifiques discutaient des essais réussis de transmission d'énergie sans fil. Ils ont pu allumer une ampoule de 60W à une distance de plus de 2,5 mètres avec un rendement de 40 % en profitant de l'interaction de résonance de deux bobines de cuivre.
La technologie est fondée sur un système comprenant un transmetteur et un récepteur ayant des antennes à boucle magnétique syntonisées à la même fréquence. Elle a été baptisée WiTricity pour "wireless electricity" et est actuellement utilisée dans les chargeurs sans fil pour des téléphones portables.
Les scientifiques cherchent une solution pour supprimer la nécessité d'un contact physique avec la base, mais pour le moment cela est impossible pour deux raisons. Tout d'abord, la transmission sans fil de l'énergie par la méthode de résonance est très efficace seulement à courtes distances. De plus, pour que la transmission d'énergie soit efficace, il faut orienter correctement le transmetteur et le récepteur. Les spécialistes russes ont utilisé la même technologie de résonance, mais ils ont apporté quelques modifications à la conception de l'appareil.
Premièrement, ils ont remplacé les bobines de cuivre par des résonateurs diélectriques. Ces résonateurs permettent de générer le champ magnétique d'une façon plus efficace avec une moindre perte d'énergie. Deuxièmement, les scientifiques ont élevé la fréquence des résonateurs. Dans cette fréquence plus haute, le champ magnétique a une structure plus complexe et atténue sa baisse au cours de sa propagation dans l'espace. Le rendement théorique de la nouvelle méthode atteint 80 %. En outre, les scientifiques russes ont proposé un système de transmission d'énergie sans fil plus résistant aux changements de l'orientation mutuelle du récepteur et du transmetteur.
Article rédigé par Georges Simmonds pour RT Flash
Applied Physics Letters
|
|
|
|
|
|
|
|
De l'électronique mobile aux voitures électriques, en passant par l'aéronautique et l'espace, les batteries Li-ion sont partout. Cette technologie qui a plus de 30 ans s'est développée de façon fulgurante : près de 15 milliards d'unités ont été produites en 2014.
Depuis quelque temps, une alternative pointe son nez. Basées sur le sodium, élément abondant et omniprésent à l'échelle du globe, les batteries sodium-ion sont pour l'heure trop massives et encombrantes pour véritablement concurrencer les batteries Li-ion sur le marché des appareils électroniques nomades. Mais l'annonce, en fin d'année 2015, du premier prototype d'une batterie Na-ion de format 18650 mis au point par le réseau RS2E pourrait bien relancer la donne…
De leur côté, les batteries Li-ion suivent également une (r)évolution. Tout comme l'amélioration de leurs capacités de stockage, la sécurité des batteries Li-ion est au cœur de la préoccupation des industriels et fait l'objet de nombreuses recherches. En effet, certaines batteries peuvent présenter des défaillances et s'enflammer inopinément.
Rachid Yazami, directeur de recherche au CNRS et détaché auprès de la Nanyang Technological University à Singapour, vient de mettre au point une nouvelle puce savante qui analyse en temps réel l'état de santé de la batterie, intimement lié à la sécurité. Inventeur, en 1980, de l'anode en graphite, il est un des pères de la batterie lithium rechargeable. Sa nouvelle puce, insérée au cœur de la batterie, diagnostique en temps réel tout dysfonctionnement. Là où ce composant électronique va plus loin que ses concurrents, c'est qu'il possède un puissant système de calculs capable de collecter et traiter en simultané trois variables - le courant, la tension et la température - pour les convertir en entropie et enthalpie. L'inventeur a nommé cette technologie « entropimétrie ».
Entropie et enthalpie constituent les composantes de l'énergie libre d'un système. L'entropie en reflète l'état de désordre thermodynamique. En vieillissant, la batterie perd de sa puissance et de ses performances énergétiques à cause de la dégradation des matériaux d'anode et de cathode.
A la manière de l'électrocardiogramme, l'entropimétrie livre des informations cruciales sur la batterie, sa sécurité, son état de charge et l'énergie dont elle dispose. Tout dysfonctionnement observé par la puce multi-capteurs occasionnera un signal d'alerte, qui entraînera l'isolement de l'élément défectueux pour éviter toute réaction en chaîne.
Compatible avec tout type de batterie au lithium, cette puce accroît également ses capacités de diagnostic au cours de son fonctionnement et des données accumulées. Autre innovation apportée par cette puce : indexer la charge de la batterie à son état de santé, une fonction inexistante jusqu'à présent. En procédant de la sorte, ce sont la durée de vie, le coût de fonctionnement et l'impact écologique des batteries Li-ion qui se trouvent optimisés. Pas moins de douze brevets ont été déposés sur la technologie « entropimétrie » mise au point par Rachid Yazami, dont 10 en copropriété avec le CNRS.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
La maladie d'Alzheimer pourrait-elle se transmettre entre humains ? Cette hypothèse n'est plus tout à fait exclue, si l'on en croit les travaux réalisés par l'University College London dans une étude publiée par Nature et les recherches effectuées par une équipe de chercheurs suisses et autrichiens, publiées dans la revue Swiss Medical Weekly.
En examinant le cerveau de 7 patients décédés de la maladie de Creutzfeldt-Jacob (MCJ), les chercheurs ont observé la présence de plaques de peptides bêta-amyloïdes, une protéine dont l'accumulation anormale dans les tissus du cerveau est un signe caractéristique de la maladie d'Alzheimer.
Or, les cerveaux autopsiés appartenaient à des personnes âgées de 28 à 63 ans, âges auxquels le développement de telles plaques est pour le moins inhabituel. Il se trouve que chez ces 7 patients décédés, la MCJ avait été déclenchée par une greffe de dure-mère, l'une des membranes - méninges - qui enveloppent le système nerveux central. Une pratique qui servait à combler la perte de cette enveloppe du cerveau et qui a été interdite en France en 1994 en raison des risques de transmission de la MCJ.
Intrigués, les chercheurs ont comparé les résultats d'autopsie de ces 7 personnes avec les observations faites sur 21 cerveaux de personnes décédées d'une MCJ dite sporadique, dont on ne connaît pas exactement l'origine. Aucun d'eux n'avait reçu de greffe. Or, chez ces derniers, aucune trace de plaques amyloïdes. Ce qui laisse penser aux chercheurs que la présence de signes caractéristiques de maladie d'Alzheimer pourrait être due à cette greffe.
Autrement dit, en plus de provoquer une MCJ, la greffe de dure-mère aurait également semé les prémissesde maladie d'Alzheimer. Et si la maladie d'Alzheimer n'avait jamais été soupçonnée chez les patients autopsiés, c'est essentiellement parce que celle-ci est d'évolution lente, au contraire de la MCJ qui, elle, peut évoluer beaucoup plus rapidement. L'hypothèse d'une transmission inter-humaine de la maladie d'Alzheimer prend donc un poids de plus en plus important, comme le relève l'auteur de l'étude publiée en septembre 2015, le Professeur John Collinge.
Article rédigé par Georges Simmonds pour RT Flash
SMW
|
|
|
|
|
|
|
|
Une expérience unique en Europe est conduite à Marseille où des chercheurs associent réalité virtuelle et imagerie cérébrale pour mesurer l'effet sur le cerveau d'une thérapie comportementale de traitement des phobies basée sur des images immersives en 3D.
Ce projet expérimental, mené dans le cadre de l’Institut des sciences du mouvement, une unité de recherche associant le CNRS et Aix-Marseille Université, consiste à immerger des patients dans un environnement recréé dans une « cave », une sorte de cube de 3 à 4 mètres de côté : un dispositif d’écrans géants projette en 3 dimensions des images qui plongent celui ou celle qui souffre de vertige dans des situations extrêmes pour lui ou elle – pont suspendu entre deux massifs rocheux, balcon, plate-forme au-dessus d’un canyon.
Des capteurs mesurent les mouvements du patient pour adapter l’évolution du paysage autour de lui mais « aussi pour évaluer son comportement », décrit le Docteur Eric Malbos, de l’Assistance Publique-Hôpitaux de Marseille (AP-HM). Le rythme cardiaque du patient est aussi mesuré. Le Docteur Malbos lui demande à intervalles réguliers d’évaluer son niveau d’anxiété de 1 à 100. En tout, 60 patients doivent se prêter à cette expérience entamée en 2015 et qui se déroule au Centre de réalité virtuelle de la Méditerranée, sur le campus de la Faculté des sciences de Luminy, à Marseille.
Dans son cabinet de l’hôpital de la Conception également à Marseille, le Docteur Malbos, médecin praticien en service de psychiatrie, accueille aussi des patients qu’il aide à se débarrasser de leurs phobies en les immergeant dans la réalité virtuelle mais avec un casque sur les yeux et une manette en main.
Dans le projet « CtrlStress » à Luminy qui porte uniquement sur le traitement du vertige, l’immersion se fait avec des lunettes 3D sur le nez et des capteurs sur le corps. « L’avantage dans la "cave", c’est que vous pouvez vous déplacer physiquement », souligne le Docteur Malbos. « Ce qui est nouveau en Europe, c’est le fait d’y associer l’imagerie cérébrale », poursuit-il. Avant le début de l’expérience, puis à son terme, « elle permet de détecter les zones les plus sollicitées dans l’environnement virtuel et de comparer l’effet de la thérapie sur différentes zones du cerveau », explique-t-il.
Article rédigé par Georges Simmonds pour RT Flash
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
Une étude américaine conduite par William Chow et Clarissa N. Amaya a montré l'efficacité d'un traitement par bêtabloqueurs (sous forme de propranolol à la dose de 40 mg, 2 fois par jour) pour les angiosarcomes cutanés positifs à 3 récepteurs béta-adrénergiques ADRB1, ADRB2 et ADRB3.
Ce traitement a permis de stopper en une semaine l'évolution de la tumeur. Le traitement par chimiothérapie et par bêtabloqueur est complété par une radiothérapie et 6 mois plus tard, alors que le patient reçoit toujours le propranolol, on considère que son état est parfaitement stabilisé sans signe de dissémination de l’angiosarcome.
Chez les patients présentant des récepteurs positifs bêta-adrénergiques, l’utilisation des bêtabloqueurs pourrait donc constituer un élément du traitement de leur angiosarcome en complément de la chimiothérapie et de la radiothérapie. L’intérêt des bêtabloqueurs est d’ailleurs étudié dans d’autres processus tumoraux et particulièrement au cours du cancer du sein métastatique.
Article rédigé par Georges Simmonds pour RT Flash
NCBI
|
|
|
|
|
|
|
|
Des chercheurs du Massachusetts ont montré que l'activation chez des souris d'une réponse immunitaire spécifique, comparable à certaines infections virales pendant la grossesse, chez la femme, modifie la structure du cerveau de leur progéniture, ce qui entraîne des changements de comportement qui rappellent les symptômes humains d'autisme.
L’étude montre que la production accrue d'une cytokine, l’interleukine-17a par un sous-ensemble de cellules T, est le mécanisme clé par lequel la réponse inflammatoire de la mère-souris conduit à des symptômes de TSA chez sa progéniture. Il s'agit ici, chez l'animal, de déficits « d'approche sociale », de communication anormale et d'une augmentation des comportements répétitifs. Ainsi, dans ces expériences de comportement, les auteurs constatent qu’une exposition in utero élevée à l'IL-17A est liée à des symptômes plus marqués d’autisme. Par exemple, ces souris exposées ont plus de difficultés à faire la différence entre une autre souris vivante et un jouet.
Mais lorsque les scientifiques bloquent la fonction d’IL-17A chez la mère via des anticorps ou d'autres techniques génétiques, ils parviennent à restaurer complètement une structure cérébrale normale et un comportement normal chez la descendance.
Un traitement par anticorps bloquant IL-17A permet ainsi de corriger certaines anomalies du comportement, ce qui suggère que les cellules Th17, ainsi que les protéines spécifiques qu'elles produisent, peuvent être des cibles thérapeutiques prometteuses pour prévenir ou réduire les symptômes d'autisme chez les enfants de mères « sensibles ». Les auteurs précisent que les réactions immunitaires liées au risque d’autisme sont bien du type « infections virales chez la mère » et "n’ont rien à voir avec les vaccins".
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Des biologistes ont mis en évidence le fonctionnement des « remodeleurs de chromatine », des enzymes-clé dans les cellules. Ils ont découvert comment le matériel génétique, compacté dans le noyau de la cellule, doit être remodelé pour permettre à la machinerie cellulaire d’accéder aux gènes. Ces travaux ont été pilotés par des chercheurs d’un laboratoire CEA/CNRS/Université Paris-Sud, dans le cadre d’une collaboration internationale avec l’Université de l’Etat de Pennsylvanie (USA) et l’Université de Guangzhou (Chine).
Notre génome est compacté dans un noyau d’environ 10 micromètres qui comprend quelque 30 000 gènes. Son organisation en chromatine – « chapelet » de nucléosomes composés de l’ADN génomique enroulé autour d’un cœur de protéines– permet cette compaction.
Mais cette structure en nucléosomes pose de nombreux problèmes à la cellule car l’ADN est rendu inaccessible à la plupart des enzymes, notamment les ARN polymérases, qui doivent transcrire le génome en ARN, en amont de la synthèse protéique nécessaire à l’expression de l’identité et de la fonction cellulaire.
De précédents travaux avaient montré que les remodeleurs de chromatine rendaient accessibles l’ADN. Mais les chercheurs ignoraient leur mode opératoire. Dans cette étude, les auteurs démontrent que les remodeleurs se lient sur des nucléosomes bien précis, situés de part et d’autre du début (appelé le promoteur) de chaque gène. Les remodeleurs agissent en imposant une dynamique constante au niveau des nucléosomes sur lesquels ils sont liés, laquelle participe activement à la régulation du génome en permettant le recrutement des enzymes responsables de la transcription.
L’expression correcte des gènes est nécessaire pour définir l’identité et la fonction des cellules au cours du développement embryonnaire et de la vie adulte. Moins d’un quart des gènes sont exprimés uniformément dans toutes les cellules de l’organisme.
C'est donc grâce à ce mécanisme enzymatique des « remodeleurs de chromatine », que les autres gènes plus spécialisés sont nécessaires et exprimés uniquement dans certains tissus et certaines cellules spécifiques.
Article rédigé par Georges Simmonds pour RT Flash
PSU
|
|
|
|
|
|
|
|
Selon une étude dirigée par la professeure Anick Bérard, de l’Université de Montréal, l’utilisation d’antidépresseurs pendant la grossesse augmenterait sensiblement le risque que le bébé soit atteint d’autisme. Cette experte de renom international, spécialiste de l’innocuité des médicaments pris durant la grossesse, est arrivée à cette conclusion après avoir étudié les données relatives à 145 456 grossesses.
"Les diverses causes de l’autisme demeurent incertaines, mais des travaux ont démontré que la génétique et l’environnement pouvaient tous deux représenter des facteurs de risque", explique-t-elle. "Notre étude a permis d’établir que la prise d’antidépresseurs, particulièrement les inhibiteurs sélectifs de la recapture de la sérotonine, les ISRS, pendant les deuxième et troisième trimestres de la grossesse, faisait presque doubler le risque d’autisme chez l’enfant".
Cette étude a analysé les données de la cohorte des grossesses du Québec qui se sont penchées sur 145 456 enfants, de leur conception à l’âge de 10 ans. En plus de renseignements sur l’utilisation des antidépresseurs par la mère et le diagnostic d’autisme chez l’enfant, les données englobaient un ensemble de détails qui ont permis à l’équipe de quantifier les effets précis des médicaments antidépresseurs. Par exemple, certaines personnes sont génétiquement prédisposées à l’autisme (elles ont des antécédents familiaux).
L’âge de la mère et la dépression sont des composantes potentiellement associées à l’apparition de l’autisme, tout comme certains facteurs socioéconomiques telle la pauvreté, et l’équipe a été en mesure de prendre tous ces éléments en compte. "Nous avons défini l’exposition aux antidépresseurs comme au moins une ordonnance d’antidépresseurs remplie pendant le deuxième ou le troisième trimestre de la grossesse. Nous avons choisi cette période parce que c’est pendant celle-ci que le cerveau du bébé franchit une étape cruciale de son développement", indique la professeure.
"Parmi tous les enfants sur lesquels portait l’étude, nous avons ensuite retenu ceux chez qui une forme d’autisme avait été diagnostiquée en vérifiant les dossiers médicaux faisant état d’autisme infantile, d’autisme atypique, du syndrome d’Asperger ou d’un trouble envahissant du développement. Enfin, nous avons recherché une association entre les deux groupes d’enfants et nous en avons trouvé une très importante : un risque accru de 87 %."
Ces conclusions revêtent une importance capitale, puisque de 6 à 10 % des femmes enceintes se voient actuellement prescrire des antidépresseurs pour soigner une dépression. "Sur le plan biologique, il est plausible que les antidépresseurs engendrent l’autisme s’ils sont utilisés pendant la période de développement du cerveau du fœtus, puisque la sérotonine entre en jeu dans de nombreux processus développementaux prénataux et postnataux, y compris la division cellulaire, la migration des neurones, la différenciation cellulaire et la synaptogénèse, soit la création des liens entre les cellules du cerveau", précise Anick Bérard.
Article rédigé par Georges Simmonds pour RT Flash
Université de Montréal
|
|
|
|
|
|
|
|
Une étude dirigée par le Professeur en sciences de la santé Pablo Nepomnaschy et le Docteur Cindy Barha de l’Université Simon Fraser (SFU) montre que les femmes donnant naissance à plus d’enfants présentent des télomères plus longs. Les télomères sont de petits capuchons de protection trouvés à la fin de chaque brin d’ADN, révélateurs du vieillissement cellulaire.
Cette étude a porté sur le nombre d’enfants nés de 75 femmes à partir de deux communautés rurales indigènes guatémaltèques voisines et sur leurs longueurs de télomères. Les longueurs des télomères des participantes ont été mesurées à deux points dans le temps à 13 ans d’intervalle, via des échantillons de salive et des prélèvements buccaux. Cette étude est la première à examiner le lien direct entre le nombre d’enfants et le raccourcissement des télomères chez l’humain au fil du temps.
Ces travaux contredisent la théorie de l’histoire de vie qui postule que la production d’un plus grand nombre de descendants accélère le rythme de vieillissement biologique. « Le ralentissement du rythme de raccourcissement des télomères trouvé chez les participantes à l’étude qui ont plus d’enfants peut être attribué à l’augmentation spectaculaire de l’œstrogène, une hormone produite pendant la grossesse », explique le Professeur Nepomnaschy. « L’œstrogène agit comme un puissant antioxydant qui protège les cellules contre le raccourcissement des télomères ».
L’environnement social dans lequel les participantes de l’étude vivent peut également influencer la relation entre leurs efforts en matière de procréation et le rythme de vieillissement. « Un plus grand soutien conduit aussi à une augmentation de la quantité d’énergie métabolique qui peut être affecté à l’entretien des tissus, ce qui ralentit aussi le processus de vieillissement » explique le Professeur Nepomnaschy.
Article rédigé par Georges Simmonds pour RT Flash
Plos One
|
|
|
|
|
|
|
|
La bactérie Faecalibacterium prausnitzii est abondante dans l’intestin des personnes en bonne santé mais diminue dès l’apparition d’une maladie inflammatoire chronique de l’intestin. Une équipe impliquant l’Inra, l’Inserm et l’Université d’Auvergne, vient de montrer les propriétés antalgiques de cette bactérie sur l'animal.
Les douleurs abdominales chroniques sont un des symptômes fréquemment retrouvés chez des patients présentant des atteintes intestinales telles que le Syndrome de l’Intestin Irritable (SII) ou une Maladie Inflammatoire Chronique de l’Intestin (MICI). En 2008, des chercheurs de l’Inra de Jouy-en-Josas ont montré que chez des patients souffrant d’une MICI, l’abondance de la bactérie Faecalibacterium prausnitzii diminue dans l’intestin.
En collaboration avec deux autres équipes françaises impliquant l’Inra, l’Inserm et l’Université d’Auvergne, ces chercheurs ont mis en évidence, grâce à des modèles animaux de stress (développant une hypersensibilité viscérale d’origine colique), qu’une diminution de l’abondance de F. prausnitzii était liée à l’apparition d’une hypersensibilité viscérale. Or, chez l’homme, une telle hypersensibilité peut se traduire par un inconfort intestinal ou des douleurs abdominales. Les scientifiques ont démontré qu’en administrant F. prausnitzii à ces animaux, ils retrouvaient une sensibilité colique normale. La bactérie F. prausnitzii pourrait donc présenter, chez l’homme, des propriétés antalgiques, venant s’ajouter à ses propriétés anti-inflammatoires décrites précédemment.
Ces scientifiques envisagent désormais de restaurer le « bien-être intestinal » grâce à de nouveaux compléments alimentaires (probiotiques) contenant F. prausnitzii.
Par ailleurs, ces travaux, qui viennent enrichir notre connaissance fondamentale dans le domaine de la microbiologie cellulaire, sont aussi à l’interface de nouvelles applications industrielles et médicales.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs du Centre de recherche contre le cancer de l’Université Libre de Bruxelles, dirigés par le Professeur François Fuks, viennent de réaliser une nouvelle avancée en épigénétique en montrant l’importance du rôle d’une des lettres de l’alphabet qui compose l’ARN : l’hydroxyméthylation (« hmC »).
« En étudiant le patrimoine génétique et épigénétique de la mouche du vinaigre, la drosophile, un organisme régulièrement utilisé dans les études de biologie moléculaire, nous avons pu montrer qu’hmC favorisait la traduction des ARN de la mouche du vinaigre en protéines », explique le chercheur. « Nous avons également pu établir la cartographie épigénétique complète de cette marque hmC ». Le Professeur Fuks et ses collègues ont encore pu démontrer le rôle essentiel joué par hmC au cours du développement de ces mouches.
Ces travaux sur l’épigénétique de l’ARN pourraient apporter des retombées importantes dans la compréhension de maladies telles que le cancer ou certaines pathologies neurologiques.Ce qui est très intéressant à ce propos, c’est que contrairement aux mutations qui affectent la séquence d’ADN, les modifications épigénétiques sont réversibles. « Dans certains cancers, des thérapies épigénétiques de l’ADN sont déjà une réalité », souligne François Fuks.
Depuis la célèbre découverte de la structure de l’ADN en1953, les scientifiques connaissent bien cette molécule et son rôle dans les organismes vivants. Quand on parle de génétique, on parle de l’étude des gènes, soit des segments de l’ADN qui portent l’information permettant à l’organisme de fabriquer, ou non, diverses protéines. Entre les deux (ADN et protéines), on retrouve l’ARN, une autre molécule qui joue les intermédiaires. L’épigénétique correspond à l’étude des changements dans l’activité des gènes, n’impliquant pas de modification de la séquence d’ADN et pouvant être transmis lors des divisions cellulaires.
L’ADN est constitué de 4 lettres/nucléotides (A, T, G, C) dont la séquence forme notre génome, rappelle-t-on à l’ULB. Nous savons qu’une 5e lettre, la méthylation de l’ADN (mC), complète le génome : mC participe à la spécialisation des cellules, en contrôlant l’expression de certains gènes. Si ces gènes ne sont pas correctement méthylés, leur expression risque d’être altérée, participant ainsi à l’apparition de maladies, telles que le cancer.
Cette étude confirme que l’ARN n’est pas simplement un intermédiaire entre ADN et protéine, mais permettrait d’expliquer plusieurs grands mystères de l’étude du vivant, tels que l’origine de la vie et le paradoxe de l’ « ADN poubelle ». Les travaux de l’équipe du Professeur François Fuks, dont il est question ici, lèvent pour la première fois le voile sur le rôle clef que joue une de ces lettres de l’ARN, l’hydroxyméthylation (hmC).
Article rédigé par Georges Simmonds pour RT Flash
Phys org
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Sera-t-il possible en 2040 de parcourir les 5.500 km qui séparent Londres de New York en moins de 12 minutes ? Peut-être, si l'on en croit l'ingénieur canadien Charles Bombardier, petit-fils du célèbre créateur du groupe aéronautique du même nom. Ce jet supersonique, baptisé Antipode, atteindrait la vitesse de Mac 24, soit 12 fois plus vite que le Concorde… soit 20.000 km/heure. Il ne pourrait transporter qu’une dizaine de personnes, rapporte The Telegraph et coûterait autour de 150 millions de dollars.
Au moment du décollage, l'antipode serait propulsé par une paire de boosters réutilisables qui l'aideraient à atteindre une altitude de 20 km et une vitesse de Mach 5. Les boosters seraient alors éjectés et un moteur de combustion supersonique prendrait le relais pour atteindre la vitesse hypersonique.
Reste toutefois à mettre au point des matériaux composite capables de résister à la chaleur lorsqu’un avion atteint une telle vitesse. L’autre problème identifié concerne le « bang supersonique » lorsqu’un avion atteint la vitesse du son, qui matérialise l’onde de choc ressenti par la carlingue de l’avion. Mais Joseph Hazeltine, un ingénieur en aérospatial qui travaille avec la Nasa, s’est déjà proposé pour aider Charles Bombardier, notamment en utilisant une solution appelée LPM (Long Penetration mode) qui permettrait de créer des contre-courants sous la carlingue de l’appareil, ce qui aurait pour effet de faire baisser la température et d’atténuer le « bang supersonique ».
Article rédigé par Georges Simmonds pour RT Flash
RWV
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|