|
|
|
|
|
NUMERO 1131 |
|
|
|
|
|
|
|
Edition du 26 Novembre 2021
|
|
|
|
|
Edito
Après la COP 26, des pistes nouvelles pour réduire drastiquement nos émissions de CO2
QUE SE PASSE-T-IL ?
CETTE SEMAINE, SEULES 4 PERSONNES ONT FAIT UN DON A RT FLASH POUR CONTINUER A ÊTRE PUBLIÉE GRATUITEMENT ET SANS PUBLICITE.
Je me permets de vous rappeler que depuis 2018, RT FLASH ne reçoit plus la moindre subvention publique pour l'aider à paraître chaque semaine.
Par ailleurs, je précise que les 3 personnes qui depuis 23 ans (depuis 1998) rédigent et mettent en ligne RT Flash sont entièrement bénévoles.
Somme collectée dans la semaine : 201 euros
Somme collectée au 24 Novembre 2021 : 6.803 euros
Nombre de donateurs : 94
Avec cette somme, jusqu'à quelle date en 2022 pourra paraître gratuitement RT Flash chaque semaine, sans publicité : 29 Mai 2022
En une semaine, nous n'avons donc gagné que 4 jours supplémentaires de parution en 2022. Nous reculons !
L'ADIST a été qualifiée d'Association d'Intérêt Général. Les dons qui sont faits à notre association ouvrent droit à une réduction fiscale de 66 % en respect des articles 200 et 238 du Code Général des Impôts.
Ainsi, si vous nous faites le plaisir de faire un don de 30 euros, vous bénéficierez d'une réduction de 20 € sur vos impôts et si votre bonté allait jusqu'à 300 euros de don pour permettre à RT Flash de survivre, ce serait une réduction de 200 euros que vous constateriez sur le montant des impôts qu'il vous faudrait régler.
Sans vous tous qui acceptez de faire des dons, RT Flash n'existerait plus. Nous avons bien conscience de la précarité de notre situation mais vous remercier chaque semaine avec des articles et un édito nous apporte beaucoup de joie et de bonheur.
René Trégouët Sénateur Honoraire Créateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash
Si vous voulez aider RT Flash, lettre d'informations scientifiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant :
Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 %.
EDITORIAL :
Après la COP 26, des pistes nouvelles pour réduire drastiquement nos émissions de CO²
Après les résultats mitigés obtenus par la récente COP 26 à Glascow, il est nécessaire qu'un maximum de Pays prennent enfin conscience de la gravité de la situation et apportent des idées nouvelles pour aider à trouver une solution.
C'est ce que je vais essayer de faire aujourd'hui, à ma modeste échelle, par cet édito.
Une nouvelle étude internationale, publiée le jeudi 4 novembre 2021, montre que les émissions mondiales de dioxyde de carbone (CO2) sont reparties à la hausse, et devraient ainsi atteindre 36,4 gigatonnes pour 2021, soit un niveau presque équivalent à celui d'avant la pandémie (Voir Global Carbon Project). Les émissions mondiales de CO2 sont tirées vers le haut par les deux géants asiatiques que sont l’Inde et la Chine, qui représenteront en 2021 à eux-seuls presque 40 % du carbone émis dans l’atmosphère. Si l’on prend également en compte les 2,9 milliards de tonnes d'émissions de CO2, correspondant aux effets des activités humaines impactant les terres (déforestation, dégradation des sols, végétalisation...), on constate que les émissions anthropiques totales pour 2021 devraient atteindre au moins 39 milliards de tonnes de CO2 pour 2021, soit une moyenne de 4,9 tonnes pour chaque terrien. N’échappant pas à ce rebond économique mondial, les émissions des États-Unis et de l'Union européenne devraient augmenter de 7,6 % cette année, même si elles resteront en moyenne inférieures de 4 % aux niveaux de 2019.
En tendance, nos émissions de CO2 ont été multipliées par 2,4 depuis 1970 au niveau mondial et, ce qui est encore plus révélateur, elles ont également augmenté, dans le même temps, de 10 % pour chaque habitant de la planète, alors que la population mondiale a progressé de plus de quatre milliards d’habitants depuis 1970. Quant à la concentration du CO2 dans l’atmosphère, elle atteint désormais 415 parties par million, soit une augmentation de 50 % par rapport aux niveaux préindustriels. En 2020, les concentrations de CO2 atmosphérique ont été plus élevées que jamais depuis au moins 2 millions d'années, et la température à la surface du globe a augmenté plus rapidement depuis 1970 que pendant toute autre période de 50 ans au cours des 2.000 dernières années. Quant au niveau moyen mondial des mers, il a augmenté plus rapidement depuis 1900 qu'au cours de tout autre siècle précédent, depuis au moins 3.000 ans.
Cette étude de référence du GCP (globalcarbonproject) a réactualisé le budget carbone mondial, en s’appuyant sur le dernier rapport du GIEC. Et les prévisions sont implacables : selon un premier scenario du GCP, si nous voulons atteindre l'objectif d'une limitation à 1,5℃ de réchauffement global pour le XXIe siècle, nous disposons d’un budget carbone total à émettre de 420 milliards de tonnes de CO2 supplémentaires au niveau mondial, ce qui correspond à 11 ans d'émissions en prenant 2021 comme année de référence. C’est pratiquement mission impossible !
Le second scenario envisagé du GCP prévoit que, pour limiter cette fois ce réchauffement à 2℃, le budget carbone mondial est logiquement plus important ; il s'élève cette fois à 1 270 milliards de tonnes de CO2 supplémentaires, soit 32 ans d'émissions au rythme actuel. Mais, même dans cette hypothèse, nos émissions de CO2 doivent diminuer de 1,4 milliard de tonnes en moyenne chaque année dès 2022, un objectif très difficile à atteindre, quand on sait que les émissions mondiales de CO2 pour 2021 devraient encore augmenter de 4,4 % par rapport à celles de 2019, année de référence d’avant la pandémie de Covid-19. A plus long terme, pour empêcher le réchauffement climatique de s’accélérer jusqu’à devenir incontrôlable et dévastateur, nous devons réduire au moins de moitié nos émissions globales de CO2 d’ici 2050, et les diminuer de 90 % d’ici la fin du siècle, ce qui implique que toute émission restante de CO2 devrait être compensée par l'élimination d'une quantité équivalente dans l'atmosphère.
Dans le cadre de la COP 26, qui vient de se terminer à Glasgow le 12 novembre dernier, les derniers engagements pris par le 152 pays, représentant 88 % des émissions mondiales de gaz à effet de serre, devraient, en théorie, permettre de réduire les émissions de 4,8 gigatonnes (gt) d’équivalent CO2 supplémentaires d’ici 2030. Mais l’ONU, comme l’ensemble des ONG climatiques soulignent avec force que ces nouveaux engagements, y compris le nouvel accord concernant la diminution des émissions de méthane, laissent le monde sur une trajectoire de hausse des températures de plus de deux degrés. Le groupe de recherche Climate Action Tracker, réputé pour son sérieux, a par exemple estimé, il y a quelques jours, que l’ensemble des engagements nationaux pris à la COP 26 permettraient seulement de limiter le réchauffement de la planète à 2,4°C d'ici la fin du siècle, bien supérieur à l'objectif fixé par les Nations unies pour 2100. L’ONU partage cette analyse et prévoit, sans une action plus vigoureuse des états, une hausse des températures de 2,1° d’ici la fin du siècle. Il est vrai que les deux principaux accords de cette COP 26, celui qui prévoit l’arrêt définitif du charbon en 2030 pour les pays développés et en 2040 pour les pays en voie de développement, et celui sur le méthane, qui prévoit une réduction des émissions mondiales de méthane d'au moins 30 % d'ici à 2030, n’ont pas été signés par des puissances économiques aussi importantes que la Russie, la Chine et l’Inde, qui entendent mettre en œuvre, à leur rythme, leur propre calendrier climatique, en fonction de leurs contraintes économiques particulières.
La part des combustibles fossiles dans le mix énergétique mondial reste très élevée, 79,5 %, et même plus de 256 GW d’énergies renouvelables ont été ajoutés dans le monde en 2020, la part totale des énergies renouvelables dans la consommation finale d’énergie (à l’exclusion du bois de chauffage) n’est encore que de 10,5 % au niveau planétaire. Or, la feuille de route tracée par le GIEC et reprise par la COP 26 est claire : si nous voulons réduire suffisamment nos émissions de CO2 pour limiter à deux degrés le réchauffement climatique en cours, nous devons porter la part des énergies renouvelables (hors nucléaire) à au moins 50 % du mix énergétique mondial en 2050. Sachant que, d’ici cet horizon, la consommation mondiale d’énergie risque de fortement augmenter et d’atteindre, selon l’AIE, 19,6 gigatonnes-équivalent pétrole (contre 13,5 en 2020), cela signifie qu’il faut multiplier par plus de sept en moins de trente ans la capacité mondiale de production d’énergie renouvelable, ce qui est un défi considérable.
Mais cette nécessaire transition énergétique mondiale gigantesque ne suffira pas, tous le spécialistes sont d’accord sur ce point, à diminuer suffisamment nos émissions de CO2 pour maîtriser le changement climatique en cours. C’est pourquoi le monde va devoir également actionner plusieurs autres leviers puissants, parmi lesquels on trouve les actions concernant l’agriculture, l’élevage, la gestion et la protection des forêts et les technologies de capture et de stockage du CO2.
Les experts d’I4CE, un groupe français de réflexion sur l’économie climatique, estiment que la demande alimentaire mondiale génère au moins un quart des rejets de gaz à effet de serre, tous secteurs confondus (sans tenir compte des effets, difficiles à évaluer, de la déforestation entraînée par la production alimentaire), (Voir I4CE). Selon I4CE, l’élevage représenterait presque les deux-tiers des rejets de l’alimentation alors qu’il ne fournit que 16 % des calories consommées dans le monde. Il semble donc inévitable de diminuer sensiblement notre production et notre consommation de protéines issues de l’élevage terrestre et de privilégier la consommation de protéines végétales ou marines, qui devront représenter les trois-quarts des protéines que nous consommerons dans 30 ans. Mais il faudra aussi, dans le même temps, réduire au moins de moitié l’incroyable gaspillage alimentaire mondial, 1,2 milliard de tonnes perdues chaque année, ce qui suppose de revoir complètement toute la chaîne logistique de la production alimentaire et de modifier profondément nos habitudes de consommation. Cette mutation sera certes lourde, complexe et difficile à mettre en œuvre, mais nous n’avons plus le choix car, à la clé, c’est au bas mot 5 milliards de tonnes de CO2 qui pourront être évitées chaque année, l’équivalent des émissions annuelles des Etats-Unis…
Un autre levier permettant de réduire sensiblement les effets du réchauffement climatique est celui de la préservation et du reboisement des forêts primaires (1 milliard d’hectares, soit le quart de la surface forestière mondiale). Les scientifiques estiment que, sur les vingt dernières années, les forêts, dans leur ensemble, ont absorbé deux fois plus de carbone qu’elles n’en ont rejeté : 16 milliards de tonnes de CO2 ont été piégées chaque année par les forêts, contre une moyenne annuelle de 8 milliards de tonnes de CO2 libérées. Deux chercheurs, Richard A. Houghton et Alexander Nassikas, du Woods Hole Research Center et Brett Byers du Rainforest Trust, ont montré que les forêts pourraient à court terme contribuer de manière considérable à la stabilisation des émissions mondiales de CO2 (Voir NCC). Selon ces scientifiques, en réduisant la déforestation, en favorisant la restauration des forêts dégradées par le déboisement, et en reboisant les zones défrichées, il serait possible, pour un coût total modique, d’éviter jusqu’à cinq milliards de tonnes d’émissions de carbone par an, soit près de la moitié des émissions actuelles dues aux énergies fossiles, pour environ 50 ans.
Thomas Crowther, chercheur au Département des sciences des systèmes de l'environnement de l’Ecole polytechnique fédérale de Zurich, estime qu’une reforestation massive est « l’une des stratégies les plus efficaces pour atténuer le changement climatique ». Dans une étude récente, réalisée avec des chercheurs du CIRAD (Centre de coopération internationale en recherche agronomique pour le développement) et de la FAO (Organisation pour l'alimentation et l'agriculture), il soutient que la « restauration des terres forestières à l'échelle mondiale » pourrait contribuer à « capturer le carbone atmosphérique et à atténuer le changement climatique ». Selon cette étude, il est possible de planter 1 200 milliards d’arbres supplémentaires, et d’augmenter de 0,9 milliard d'hectares supplémentaires la surface forestière mondiale ; cela représenterait une augmentation de plus de 25 % du couvert forestier mondial, ce qui permettrait de stocker environ 205 gigatonnes de carbone supplémentaire, l’équivalent de 25 % du stock actuel de carbone atmosphérique (Voir Science). Le dernier rapport du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) des Nations unies recommande de son côté d'ajouter 1 milliard d'hectares de forêts pour contribuer à limiter le réchauffement de la planète à 1,5°C d'ici à 2050.
La préservation des océans et de leurs écosystèmes nous offre une autre et puissante voie d’action pour lutter contre le changement climatique. On estime qu'en 2020, les océans ont absorbé environ 9 milliards de tonnes de carbone, soit plus du quart des émissions mondiales. Selon un rapport de l'ONU, l'équivalent de la moitié des émissions annuelles de carbone, générées par le secteur mondial des transports, est piégé et conservé par les écosystèmes marins tels que les mangroves, les marais et les prairies sous-marines, c’est le fameux « carbone bleu », qui ne représente que 2 % de la surface océanique mondiale, mais 50 % du carbone stocké dans les sédiments océaniques, soit un réservoir de carbone stocké via ces écosystèmes de 75 Gt de carbone, l’équivalent de 8 années d’émissions de CO2 mondiales liées à l’énergie. Une baisse de la déforestation terrestre combinée à une réhabilitation de la couverture et de l'état de ces écosystèmes marins permettrait une baisse de 25 % de ces émissions, réduction nécessaire pour éviter un changement climatique incontrôlable.
Parmi les solutions envisagées pour limiter la hausse des températures : retirer le CO2 présent dans l'air. Développée par l’entreprise suisse Climeworks, dans le cadre du projet islandais Carbfix, la plus grande usine de captage et de stockage de CO2, baptisée « Orca », vient d'être lancée en Islande et doit aspirer des tonnes de dioxyde de carbone de l'atmosphère. Elle est équipée de douze ventilateurs qui aspirent l'air. Le CO2 est ensuite filtré et chauffé pour être séparé de l'air « pur », qui est, lui, rejeté dans l'atmosphère. Le dioxyde de carbone est ensuite mélangé à de l'eau pour être injecté à 1.000 mètres de profondeur, dans le basalte, où il se transformera en roche en deux ans environ. Le CO2 est donc retiré de l'atmosphère de manière permanente.
L'énergie nécessaire au fonctionnement de l'usine est fournie par une installation géothermique à proximité du site, et Climeworks annonce une efficacité de 90 % en termes d'émissions de CO2. Cette technologie, appelée « Direct Air Capture » (DAC), pourrait permettre de compenser les émissions de certains secteurs comme l'aérien ou l'agriculture, qui sont difficiles à décarboner. L’originalité de l’usine Orca est qu’après avoir extrait le CO2 de l’air, elle le stocke définitivement sur place, à grande profondeur. L'usine peut capturer 4.000 tonnes de CO2 par an et est ainsi la plus grande usine de capture directe et de stockage de CO2 au monde.
Le Japon travaille également et activement à la capture et au stockage du CO2. Sur l'île d'Hokkaido, scientifiques et ingénieurs nippons ont monté le projet de démonstration de Tomakomai, qui récupère chaque jour 600 tonnes de CO2 provenant d’une installation d'approvisionnement en gaz dans la raffinerie Idemitsu Kosan Hokkaido, voisine du Centre. Une fois au sein du Centre de démonstration, le CO2 est isolé et capté par absorption chimique. Le CO2 est ensuite acheminé sous pression vers des couches géologiques situées sous les fonds marins, entre 1000 et 3000 mètres de profondeur. Les autorités japonaises précisent qu’elles ont largement dépassé l’objectif initial du projet (100 000 tonnes de CO2 stocké), puisqu’elles ont réussi à injecter 300.000 tonnes en deux ans dans le sous-sol. « L'Agence internationale de l'énergie estime qu’en 2050, nous devrons être capables de stocker 7 milliards de tonnes de CO2 par an grâce aux systèmes de captage-stockage pour atteindre l’objectif de zéro émission nette, et notre technologie pourra contribuer à atteindre cet objectif ambitieux », souligne Nakajima Toshiaki, responsable du projet.
Mais le Japon ne travaille pas uniquement sur le captage du CO2 à sa source et à son stockage. Ses ingénieurs ont aussi trouvé comment utiliser ce gaz pour produire un béton à bilan carbone négatif appelé CO2-SUICOM. « Le béton ordinaire émet environ 288 kg de CO2 par m³ lors de sa production, mais le béton CO2-SUICOM présente lui un bilan négatif de 18 kg », indique Watanabe Kenzo, directeur général du Groupe matériaux de construction et béton à l'Institut de recherche technique Kajima. Il s'agit du premier béton au monde qui est non seulement négatif en carbone, mais aussi capable d'absorber du CO2 pendant le processus de durcissement.
Outre-Rhin, des chimistes de l'Université Johannes Gutenberg de Mayence (JGU) en Allemagne ont développé une technique qui permet de réduire considérablement les émissions de CO2 de la production de ciment à long terme. Dans ce procédé, la chaux brute (CaCO 3) n'est plus transformée en chaux brûlée dans des fours à charbon mais est simplement broyée avec du silicate de sodium solide (Na 2 SiO 3). Alors que les procédés actuels nécessitent des températures de 1 000 à 1 500 degrés Celsius, l'étape de broyage est réalisée à température ambiante. En réduisant ainsi considérablement la consommation d’énergie nécessaire, ce nouveau procédé de fabrication du ciment pourrait permettre à terme d’éviter une gigatonne d’émissions de CO2, c’est-à-dire presque un tiers des émissions de l’UE.
Les algues marines sont également appelées à jouer un rôle important dans cette course à la récupération et au stockage du CO2. Ces plantes aquatiques absorbent cinq fois plus de carbone que les forêts. « Elles sont le plus grand puits de carbone qui existe, puisque 85 % du CO2 qui est absorbé par les océans est assimilé par les algues et le plancton », explique Philippe Potin, directeur de recherche au CNRS. A Fos-sur-Mer, près de Marseille, le projet Vasco utilise avec succès, depuis 3 ans, des microalgues dépolluantes qui absorbent, grâce aux tuyaux raccordés aux bassins, les fumées industrielles voisines. Actuellement, on estime que les algues permettent déjà de capter et stocker 173 millions de tonnes de m3 de carbone chaque année à l’échelle mondiale – l’équivalent des émissions annuelles de l'Etat de New York.
Ce potentiel considérable de la culture d’algues pour lutter contre le réchauffement climatique est confirmé par une étude américaine menée par Halley Froehlich, chercheuse à l'Université de Californie à Santa Barbara. Ces travaux ont permis de quantifier pour la première fois la capacité globale de l'algoculture à grande échelle pour contrebalancer les émissions terrestres de carbone et cartographie les régions propices au développement de la culture des macroalgues : la mise en place de l'algoculture sur seulement 3,8 % des eaux fédérales au large de la Californie pourrait neutraliser les émissions dégagées par l'industrie agricole de l'état. Ces recherches ont évalué la superficie océanique totale compatible avec l'algoculture à 48 millions de km². L’étude souligne que, même si les algues ne sont pas une solution-miracle pour compenser nos émissions de CO2, il serait possible, en développant l’algoculture à grand échelle (7,3 millions de km2, ce qui représente 15 % de l'océan) de compenser la totalité des émissions directs de CO2 provoquées par l’agriculture mondiale.
La société américaine Hypergiant Industries a récemment présenté son prototype baptisé Eos Bioreactor. Cet appareil se présente sous la forme d’un cube de 2,13 m de hauteur sur 91 cm de côté, capable de stocker autant de CO2 qu’une surface forestière de 0,4 hectare ! Avec une capacité de stockage 400 fois plus performante que celle d’un arbre, cet étonnant bioréacteur pourrait jouer un rôle important dans la capture et le stockage décentralisé du CO2.
Une autre technique, simple et peu coûteuse, a révélé un énorme potentiel pour éliminer le CO2 de l'air : la fertilisation des sols à l’aide de poudre de roche silicatée ou farine de pierre. Une étude internationale à laquelle l'Université d’Anvers a participé, a montré que le basalte était une excellente roche pour appliquer cette technique, car il contient des éléments nutritifs qui favorisent la croissance des plantes et enclenche ainsi un deuxième mécanisme d'élimination du CO2 (Voir University of Antwerp).
Selon ces travaux, cette technique pourrait permettre l'élimination de 2,5 milliards de tonnes par an, l’équivalent des émissions de l’Inde. Le chercheur Ivan Janssens de l'Université d'Anvers souligne que « L'élimination la plus importante de CO2 a été constatée dans des régions qui étaient auparavant considérées comme impropres à de tels ajouts de farine de roche. Le potentiel global d'élimination du CO2 du basalte est donc beaucoup plus important que ce qui avait été suggéré auparavant ».
Evoquons enfin un accord très important, pris par une trentaine de pays et six constructeurs, dans le cadre de la COP 26 qui vient de se terminer à Glasgow, et qui prévoit que tous les véhicules neufs, fourgonnettes comprises, mis sur les marchés du monde entier, soient tous zéro émission d'ici à 2040. Cet accord devrait provoquer un effet d’entraînement et accélérer la décarbonation des transports terrestres, qui représentent 6 gigatonnes de CO2 par an (15 % des émissions totales) et ont augmenté de 77 % depuis 1990. Cette « feuille de route » volontariste devrait permettre aux ventes de véhicules propres ou à faibles émissions, comme le prévoit un récent rapport de BloombergNEF (Voir BNEF), de dépasser celles des véhicules thermiques dès 2037, au niveau mondial, ce qui aboutirait à décarboner un tiers du parc mondial, à l’horizon 2040.
Nous avons longtemps cru, dans une vision un peu simpliste des choses, que la montée en puissance très forte des énergies renouvelables et décarbonées (y compris le nucléaire) pourrait permettre de régler une grande partie du défi climatique en diminuant massivement nos émissions de CO2. Mais nous savons à présent qu’en matière climatique et énergétique, les choses sont bien complexes et que, pour réduire au moins de moitié nos émissions globales de CO2 d’ici 2050, nous allons devoir, en modifiant profondément nos pratiques agricoles, notre gestion des sols des forêts et en utilisant l’immense potentiel des océans, faire de la nature une alliée précieuse, et à nouveau capable d’absorber et de recycler bien plus efficacement le CO2 que nous émettons. Pour au moins un cinquième de l’effort gigantesque de réduction de nos émissions de CO2 que nous devons accomplir d’ici 30 ans, nous allons également avoir besoin de recourir, à une échelle industrielle, à de nombreuses technologies complémentaires de capture et de stockage du carbone, dont certaines restent à inventer, qu’il faudra combiner de manière intelligente en fonction des contextes locaux.
Et tous ces efforts conjugués devront en outre s’inscrire dans un cadre de réduction massive de nos besoins « à la source » d’énergie, ce qui suppose une profonde transformation de nos sociétés, de nos économies et de nos modes de vie. C’est au prix de cette mutation globale et sans précédent dans l’histoire de notre espèce, que nous pourrons faire tomber, en dépit d’une Terre qui comptera deux milliards d’habitant en plus, les émissions de CO2 de 40 à 20 milliards de tonnes en 2050, ce qui devrait nous permettre, non pas de stopper le changement climatique irréversible en cours, mais d’en garder le contrôle, et d’éviter qu’il ne rende notre planète invivable…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Il y a pratiquement 10 ans, des chercheurs étaient parvenus à encoder des données binaires dans des brins d’ADN, la chaîne moléculaire à double hélice dans laquelle sont consignées dans les cellules les informations génétiques du vivant. Quelques années plus tard, les scientifiques ont préféré employer de l’ADN synthétique, plus facile à manipuler, et qui serait capable d’archiver des tonnes d’informations dans un minimum d’espace, pendant des centaines de milliers d'années.
Deux designers et artistes danois, Cyrus Clarke et Monika Seyfried, passionnés de biologie synthétique et militants écologistes, ont mis au point un procédé pour encoder et relire des données dans des végétaux sans avoir besoin de détruire ces organismes vivants. Leur projet s’intitule Grow Your Own Cloud, que l’on peut traduire par « Faites pousser votre propre serveur informatique dématérialisé ». Leur objectif est de combattre les effets du « data warming », des centres de données qui surchauffent la planète en engloutissant des gigawatts d’une électricité générée principalement par des centrales fonctionnant aux énergies fossiles. « D’ici à 2025, les fermes de stockage utiliseront plus de 20 % de l’énergie mondiale », précise Cyrus Clarke, administrateur de la jeune pousse qui est née du projet. « Nous avons commencé ce projet en tant qu’artistes, moi je suis designer et je travaille avec Monika Seyfried qui est aussi artiste de formation. Nous avons eu cette idée il y a 5 ans, mais petit à petit nous avons été rejoints par de nombreuses personnes, surtout des scientifiques américains, qui nous ont aidé à mettre au point ces serveurs informatiques et "biologiques" », indique Cyrus Clarke.
« Notre procédé ne fonctionne pas exactement comme celui expérimenté actuellement par les grandes firmes numériques, qui inscrivent directement des données binaires sur de l’ADN. Nous avons inventé plusieurs étapes intermédiaires en encodant d’abord ces données sur de l’ADN synthétique. Puis cette mixture sous forme liquide intégrant les informations numérisées est ingurgitée par des bactéries. Ces micro-organismes sont ensuite absorbés naturellement par les plantes qui alors stockeront les données », explique Cyrus Clarke.
« La lecture des informations est réalisée en sens inverse avec un outil de séquençage génétique en prélevant les bactéries dans le végétal sans qu’il soit nécessaire de détruire la plante. Nous envisageons de multiplier ces bio-centres de données dans des jardins ou de planter des forêts entières, en créant peut-être bientôt un nouveau type de métier pour les agriculteurs du futur qui seront alors chargés de cultiver et récolter des données », ajoute-t-il.
Les équipes de ce projet à l’origine artistique ont décidé de créer une jeune pousse pour tester grandeur nature les premières infrastructures fonctionnelles de leur biotechnologie. Dans le labo « Data Garden », par exemple, les internautes peuvent en quelques heures réaliser la conversion de données numérisées de textes, d’images ou de fichiers MP3 dans un format « biologique ».
Si la jeune entreprise se concentre toujours actuellement à peaufiner son système d’encodage numérique sur l’ADN des plantes, elle compte à terme industrialiser son procédé et commercialiser auprès des grandes firmes du web ses serveurs informatiques biologiques. Et peut-être qu’avec l’aide de dame Nature et de forêts entièrement dédiées au stockage, notre boulimie du numérique absorbera cette fois le CO2 tueur de climat, plutôt que de l’émettre dans l’atmosphère.
Article rédigé par Georges Simmonds pour RT Flash
RFI
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
S'inspirant de la nature et des neurones biologiques, une équipe du laboratoire de physique de l’École normale supérieure a conçu théoriquement un neurone artificiel avec des ions comme vecteur d’information. Ce prototype est constitué de fentes en graphène extrêmement fines – comme les pores nanométriques des neurones biologiques appelés canaux ioniques – dans lesquelles est confinée une seule couche de molécules d’eau. Sous l’effet d’un champ électrique, les ions de cette couche s’assemblent en grappes allongées et reproduisent le mécanisme physique de l’émission des potentiels d’action : la transmission d’informations.
Des chercheurs du laboratoire de nanofluidique de l'ENS ont étudié l’eau à l’échelle nanométrique, pour essayer de reproduire le fonctionnement d’un neurone avec des canaux artificiels. En observant comment des ions se comportent dans un système confiné où l’eau forme une seule couche moléculaire, ces scientifiques ont réussi à décrire ces systèmes identiques aux canaux ioniques qui sont des petits pores dans la membrane de cellules. Ces canaux permettent d’échanger des ions de manière sélective et précise avec le milieu qui les entoure. Ils interviennent dans beaucoup de processus biologiques, notamment dans l’émission de potentiels d’action qui permettent aux neurones de communiquer entre eux.
En effet, il existe dans la nature des exemples de processus qui consistent à faire passer de l’eau dans des trous, comme c’est le cas des reins, extrêmement efficaces, car ils ne laissent passer aucune impureté et sont très rapides à le faire. Mais depuis 5 ans, grâce l’équipe d’André Geim (Université de Manchester), inventeur du graphène et prix Nobel de physique en 2010, on sait réaliser une fente tellement fine que lorsque l’eau passe à l’intérieur, elle crée une seule couche.
Les chercheurs de l'ENS se sont donc alliés à l'équipe de Geim pour imaginer un concept d'ordinateur ionique, inspiré de la nature, qui consommerait beaucoup moins d'énergie. De nombreux chercheurs essaient de copier l’architecture du cerveau, du neurone, car celui-ci n’est pas du tout organisé comme un ordinateur. Dans un ordinateur, il y a la mémoire qui stocke l’information et un processeur qui la traite. Alors que dans le cerveau, la mémoire et le processeur, c’est la même chose. Ce sont les neurones qui stockent et traitent l’information. De nombreuses recherches consistent à essayer de créer de nouvelles manières de faire des calculs en s’inspirant des neurones et du cerveau de manière générale.
On pense notamment au memristor, un composant électronique qui imite le fonctionnement d’une synapse…
Effectivement, dans le memristor et dans d’autres processus électroniques qui copient le cerveau, les neurones stockent et processent l’information. Le memristor est une résistance électrique qui a un état interne pouvant coder l’information. Il peut avoir deux états : la haute résistance qu’on appelle 1, et la basse résistance 0. Cela fonctionne comme les bits d’informations et on peut les programmer. En fonction de son histoire, on peut mettre le memristor dans un des deux états et il va s’en souvenir. Et si on le laisse tranquille, il va garder l’état. Cette approche permet de concevoir des systèmes qui traitent l’information comme dans le cerveau, c’est-à-dire directement dans la mémoire, sans avoir besoin de l’extraire et de l’envoyer à un processeur.
C'est dans ce nouveau contexte que l’utilisation des ions prend tout son intérêt. Dans l’ordinateur, il y a des électrons qui se déplacent dans un métal. Dans le cerveau, c’est un échange d’ions de part et d’autre d’une membrane. Il existe différents types d’ions : sulfate, sodium, chlorure, lithium, potassium. Alors qu’il n’existe qu’un seul type d’électron. Ces chercheurs sont persuadé que cette flexibilité offerte par les ions peut permettre de réaliser un ordinateur traitant l'information de manière biochimique et consommant des milliers de fois moins d'énergie qu'une machine classique de puissance équivalente....
Article rédigé par Georges Simmonds pour RT Flash
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
La microfabrication a permis la production de dispositifs informatiques aux dimensions réduites comme les smartphones ou les smartwatches. Et des transistors, il y en a partout, dans les voitures, les feux de signalisation, les cafetières. Malheureusement, la miniaturisation des transistors est très proche de la limite de saturation. « Les grands défis que nous devons relever aujourd’hui sont liés aux ordinateurs afin de surpasser ce point de saturation, notamment, au travers de nanostructures et de nanofils, » explique Valerio Piazza, Lauréat 2020 du Prix Scientifique Piaget à l'EPFL.
La récente augmentation des performances informatiques est intimement liée aux progrès de la micro-fabrication. En diminuant leur taille, il est possible d'obtenir plus de transistors par unité de surface, ce qui conduit à une plus grande puissance de calcul. Comme les ordinateurs classiques sont limités par la taille de leur transistor, de nouvelles approches sont à l'étude comme les nanofils, des nanostructures qui pourraient devenir de nouveaux transistors pour des ordinateurs quantiques.
Un ordinateur classique est constitué de composants électroniques et de circuits électriques. Les bits correspondent à des charges électriques circulantes qui traduisent le passage d’un courant électrique ou son absence. Le système quantique, lui, n’a pas deux états possibles - ouvert, fermé - comme le système électrique, il en a une infinité d’états. Dans l’ordinateur quantique on parle de Qubits, ils représentent la plus petite unité de stockage d'information. Et c’est à l’échelle sub-micrométrique que le chercheur poursuit ses investigations.
Gallium, aluminium, indium, nitrogène, phosphore, arsenic : les nanofils horizontaux, car il en existe des verticaux, sur lesquels travaille Valerio Piazza, sont composés des groupes 3 et 5 des atomes de la table périodique. « Chaque étape de notre recherche comporte des défis. Nous nanostructurons le substrat, nous créons le matériau et voulons augmenter la qualité de nos cristaux. Enfin, nous caractérisons nos nanofils afin d’optimiser leurs propriétés électriques ».
Aujourd’hui, les transistors mesurent autour de 10 nanomètres. Les nanofils (horizontaux) ont la même taille mais peuvent avoir des paramètres électriques supérieurs selon la qualité des cristaux. En dessinant des nanoconducteurs sur les surfaces du substrat d’une façon très spécifique, le chercheur crée des motifs différents qui permettent de tester la structure pour la rendre plus performante : « Pensez à une autoroute, si vous n’avez qu’une voie, vous aurez un début et une fin, s’il y a plusieurs branches cela permet de rejoindre chaque point du pays et plus loin encore ». En d’autres termes, on crée un réseau. Dans les mois à venir Valerio Piazza va se concentrer sur les facteurs nécessaires pour améliorer le processus.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La consommation annuelle d’énergie liée au chauffage représente plus d’un tiers de l’énergie globale utilisée en Suisse. Dans les bâtiments résidentiels, elle est assurée à près de 60 %, aujourd’hui encore, par des énergies fossiles faisant de notre pays le plus gros consommateur européen ramené à l'habitant. Une débauche de carbone qui devrait tendre à la baisse grâce aux incitations de la Confédération et des cantons, au progrès dans l’isolation des bâtiments et aux développements technologiques.
De plus en plus de propriétaires ont recours aux installations hybrides, qui combinent plusieurs sources d’énergie et permettent de limiter le recours aux combustibles fossiles. C’est dans cette évolution que s’inscrit Enerdrape, spin-off de l’EPFL, dont la solution de récupération de chaleur se présente sous forme de panneaux posés contre les murs des souterrains. Actuellement en phase de test dans un parking du quartier de Sévelin à Lausanne, ce système pourrait fournir jusqu’à un tiers de l’énergie nécessaire à tempérer l’immeuble d’une soixantaine d’appartements sous lequel il se trouve.
En donnant un rôle au maximum fonctionnel aux murs du parking, les panneaux au design bleu et blanc permettent d’exploiter les ressources environnementales durables à des endroits autrement inutilisés. Ces dix éléments de métal, aussi fins qu’une toile de maître et d’une surface de 1,3 X 0,7 m, cachent un échangeur de chaleur optimisé pour capturer à la fois l’énergie géothermique et ambiante. Connectés avec une pompe à chaleur, ils pourront fournir au bâtiment une énergie constante tout au long de l’année. « Dès quelques mètres de profondeur, la température du sol ne varie plus : l’énergie que l’on peut en tirer n’est donc pas dépendante des variations saisonnières ni de la météo », commente Margaux Peltier, CEO de la start-up.
Installés sur les murs en béton du parking, ils donnent même au passant l’impression d’une nouvelle décoration. Mais ce n’est bien évidemment pas ce qui a convaincu Alberto Simonato, directeur du fonds Realstone, entreprise propriétaire du parking qui a également appuyé la start-up dans sa demande de financement BRIDGE (Fonds National et Innosuisse). « Nous avons l’habitude d’encourager des start-up innovantes actives dans la réduction de CO2, un domaine dans lequel nous sommes proactifs et en avance sur les objectifs cantonaux et fédéraux. Une autre start-up de l’EPFL a d’ailleurs été mandatée pour équiper nos nouveaux immeubles d’un système de télérelevage de la consommation d’eau et de chauffage ». Dans le quartier de Sébeillon, le fonds Realstone est propriétaire de cinq immeubles comprenant 356 logements. « Si ces panneaux s’avèrent aussi efficaces que prévu, une installation étendue aux autres murs ad hoc du parking souterrain de 275 places serait envisageable, tout comme dans plusieurs autres de nos constructions ».
La large palette de tests effectués dans les souterrains de l’EPFL ces deux dernières années a convaincu les cofondateurs du potentiel commercial de cette technologie. C’est durant son travail au Laboratoire de Mécanique des Sols que Margaux Peltier a évalué diverses solutions et optimisé matériaux et agencement. Le rendement s’est avéré plus important qu’espéré et force est de constater qu’en ville, l’espace dévolu aux parkings souterrains est plus important que celui pouvant être consacré à l’implantation d’autres sources d’énergie renouvelable. Les murs des constructions en profondeur représentent une surface peu valorisable, là où les mètres carrés situés à la surface sont économiquement intéressants. À des coûts comparables aux autres solutions énergétiques pour un meilleur ou un rendement équivalent, constructions existantes comme nouvelles constructions pourraient ainsi être équipées au cours des prochaines années. Seule condition : que les parois de béton soient plaquées contre un terrain naturel afin de pouvoir y puiser l’énergie.
Article rédigé par Georges Simmonds pour RT Flash
Enerzine
|
|
|
|
|
|
|
|
La protection des côtes face à la montée des eaux pourrait bien faire enfin décoller les vagues en tant que source d’électricité renouvelable crédible ? C’est tout le pari d’un système d’un nouveau genre, dit « digue houlomotrice », dont un prototype - baptisé Dikwe - est en construction depuis le début de l’été en rade de Brest (Finistère). Conçu en collaboration par le groupe industriel Legendre et la société d’ingénierie spécialiste des énergies marines Geps Techno et l’Ifremer, l’ouvrage doit être finalisé dans quelques jours et pourrait préfigurer les barrages marins du futur, imaginent déjà ses concepteurs.
« L’énergie houlomotrice a du mal à émerger en raison des coûts d’opération et de maintenance », convient d’emblée Quentin Henry, chargé du projet Diwke chez Legendre. Ce dernier note que la construction de nouvelles digues, comme la réfection d’ouvrages anciens, devraient être dopées par le développement de ports pour la maintenance de l’éolien en mer, comme par la montée des eaux causée par le réchauffement climatique.
Reste que dompter l’énergie des vagues est un défi d’ingénierie, auquel se sont déjà heurtés un nombre incalculable de prototypes, rappelle Marc Le Boulluec, ingénieur en hydrodynamique des structures et référent du projet à l’Ifremer. « L’énergie de la houle qui arrive sur nos côtes et au large est colossale. Nous parlons de plusieurs kilowatts par mètres de côte. Mais il faut des structures, capables de résister aux conditions extrêmes qui surviennent dans les champs de vagues, et économiquement viables », explique le scientifique. Tout en notant qu’une digue houlomotrice, qui est un « dispositif bord à quai », est moins coûteuse à produire et plus aisée à maintenir qu’un dispositif houlomoteur en pleine mer.
Après avoir été testé en bassin dans les locaux de l’Ifremer, le prototype en cours de construction sera installé en pleine mer en rade de Brest, au sein de la station d’essai de l’Ifremer à Sainte-Anne du Portzic. Un site naturel qui permet à l’institut, en partenariat avec l’Institut Carnot Mers, de tester toutes sortes d’appareils innovants pour les énergies marines, tel qu'un prototype d’éolienne flottante à axe vertical de la jeune pousse Hydroquest. La digue aura la forme d’un canal de 4 mètres de haut, pour 4 de large et 6 de profondeur, fixé sur un support fixe métallique. Elle produira de l’ordre de « quelques kilowatts », estime Quentin Henry, sans donner davantage de précisions. Son activité sera suivie par une flopée d’instruments de mesure caractérisant les conditions météorologiques, la production d’énergie, ou encore les efforts sur la structure.
Concrètement, la digue amortira l’énergie des vagues grâce à un système de panneaux oscillants. « La digue comporte des caissons, intégrant chacun une zone d’eau, un volet oscillant et une plage en fond de chambre. Les vagues arrivent de face et entraînent la rotation des volets », décrit Marc Le Boulluec. De là, le couple est transmis à un piston, qui prend le relais et comprime un fluide pour entraîner une turbine et générer de l’électricité. Un système « déjà connu et utilisé au sein d’autres dispositifs houlomoteurs », souligne Quentin Henry.
Le prototype doit néanmoins fiabiliser le concept technologique. D’abord, Dikwe permettra de récolter davantage de données sur le fonctionnement réel d’une digue, notamment au niveau de l’intermittence d’une telle production électrique, très dépendante de la force des vagues, du vent et de l’amplitude des marées. Les tests en pleine mer seront aussi l’occasion de confirmer la résistance des panneaux oscillants, pour en caractériser l’usure et le bon fonctionnement du système de mise en sécurité des panneaux en cas de tempête, liste Quentin Henry.
Il faudra attendre un an pour savoir si le prototype, cofinancé par les régions Bretagne et Pays de la Loire ainsi que l’Ademe, tient ses promesses. Mais Quentin Henry se veut confiant. « Nous mesurons déjà l’intérêt des propriétaires portuaires. Beaucoup nous ont déjà contactés », confie-t-il, en estimant qu’à terme, une digue houlomotrice sera capable d’atteindre « facilement plusieurs mégawatts (MW) ». « Sur une zone exposée, il est possible de dépasser le MW avec 100 mètres de digues, et les digues portuaires peuvent faire plusieurs milliers de mètres », chiffre-t-il. Sans toutefois s’avancer à donner un coût de production, qu’il juge « peu pertinent au vu du modèle économique prévu », qui combine protection côtière et production d’énergie.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Nouvelle
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Quelques modifications apportées à l'alimentation et un mode de vie plus actif pourraient aider à mater une hypertension artérielle qui résiste aux thérapies pharmacologiques, indique une étude américaine. On considère qu'un patient souffre d'hypertension quand sa pression artérielle est supérieure à 130 mm Hg / 80 mm Hg. Cette hypertension est dite résistante si les chiffres refusent de baisser malgré l'utilisation concurrente de trois médications. Le problème serait plus fréquent chez les hommes que chez les femmes. Les chercheurs américains ont toutefois constaté que ces patients pouvaient améliorer leur sort en adoptant le régime alimentaire DASH et en augmentant leur niveau d'activité physique.
En augmentant l'activité physique des participants puis en recalibrant leurs habitudes de vie en général, mais surtout leurs habitudes alimentaires pour s'approcher des recommandations du Guide alimentaire canadien, on voit une baisse vraiment importante de la tension artérielle, et ça, c'est un message qu'il faut dire et redire, a commenté le Professeur Benoît Arsenault, de l'Institut sur la nutrition et les aliments fonctionnels de l'Université Laval. L'activité physique, la saine alimentation, ça fait partie des plus importants médicaments qu'on a pour diminuer la tension artérielle, mais aussi pour prévenir l'incidence des maladies cardiovasculaires en général.
Lors de cette étude, 90 adultes souffrant d'hypertension résistante ont reçu des conseils hebdomadaires sur le respect du régime alimentaire DASH, qui préconise notamment la consommation de plus de fruits et légumes ; de plus de produits laitiers faibles en gras ; de plus de viande maigre, de noix et de grains entiers ; et de moins de gras saturés et de sel. Ces sujets ont également participé à trois séances supervisées d'entraînement physique intense chaque semaine. Un autre groupe de 50 sujets a été renvoyé à la maison avec des conseils sur l'activité physique, la perte de poids et l'alimentation. Les membres du premier groupe ont abaissé leur pression artérielle en moyenne de 12 points, comparativement à sept points pour ceux du deuxième groupe.
L'intervention, ce n'était pas des régimes drastiques, des diètes liquides et puis des choses comme ça, a dit M. Arsenault. C'était simplement de suggérer une approche qui est validée comme traitement de l'hypertension artérielle dans la population générale. Mais là, on vient démontrer que ça baisse la tension artérielle chez les patients qui sont résistants à leur traitement. Les membres du premier groupe ont essentiellement augmenté leur consommation de fruits et légumes et de fibres, donc ce ne sont pas des changements qui sont très drastiques, a-t-il ajouté. De plus, poursuit M. Arsenault, on augmente la consommation de fibres et il n'y a pas de grosse diminution calorique, donc on ne parle pas d'une diète restrictive qui est très difficile.
On parle juste de faire des petits changements, de peut-être cuisiner un peu plus, de manger peut-être moins souvent à l'extérieur, de manger moins d'aliments transformés ou d'aliments de restauration rapide, a-t-il dit. La majeure partie du sodium dans notre alimentation ne provient pas de la salière sur la table, mais plutôt du sel ajouté aux aliments ultra-transformés. Donc, en cuisinant plus nous-mêmes, en ajoutant de la couleur dans nos assiettes, on peut combattre une partie du problème.
Une hausse de la consommation de fruits, de légumes et de fibres peut aussi avoir un impact sur le microbiote, la flore intestinale dont l'impact sur de multiples facettes de notre santé est de plus en plus mis en évidence par des études. Je pense qu'on a plusieurs outils dans notre coffre, il faut tous les utiliser pour s'assurer que l'ensemble de la population a une tension artérielle acceptable, a conclu M. Arsenault. Il ne faut pas prendre ça à la légère parce c'est un des plus importants facteurs de risque pour les maladies cardiovasculaires. Et puis si l'hypertension artérielle n'est pas contrôlée, on voit que c'est une maladie qui peut avoir des effets qui sont non négligeables.
Article rédigé par Georges Simmonds pour RT Flash
Radio Canada
|
|
|
|
|
|
|
|
Une nouvelle étude menée par des chercheurs de l’institut MIND de l'Université de Californie à Davis, aux États-Unis vient de montrer que la télémédecine peut aussi s’avérer être un outil précieux pour diagnostiquer de manière précoce l’autisme. Ces recherches montrent que l'évaluation par e-medecine pourrait contribuer à améliorer l'accès aux soins pour les nourrissons présentant une probabilité élevée d'autisme, en aidant notamment les familles isolées ou placées sur de longues listes d’attente à obtenir un diagnostic et une prise en charge précoce.
« L'objectif n'est pas de diagnostiquer l'autisme chez les nourrissons », explique Meagan Talbott, chercheuse professionnelle adjointe au département de psychiatrie et des sciences du comportement et membre de la faculté de l'Institut MIND. « Il s'agit de fournir une évaluation du développement pour aider à combler le fossé auquel nous savons que les parents sont confrontés lorsqu'ils remarquent les premiers symptômes jusqu'à ce que leurs enfants reçoivent finalement un diagnostic d'autisme ».
Lorsque des parents ont une suspicion d’autisme pour un de leurs enfants, ils cherchent généralement à obtenir une évaluation précoce. Ils se retrouvent alors inscrits sur de longues listes d’attente, ou doivent se déplacer dans des centres loin de chez eux. Il s’écoule généralement des années entre le moment où les parents se posent des questions et celui où ils sont enfin reçus. « Il en résulte un stress important pour les familles et un retard dans le soutien apporté aux nourrissons et à leurs soignants », note la Pr Talbott.
L'étude a porté sur 41 nourrissons, âgés de 6 à 12 mois, dont les parents avaient des inquiétudes concernant la communication sociale ou l'autisme. Ils ont été recrutés au niveau national en trois cohortes. Un quart des nourrissons avaient des frères et sœurs autistes. Les chercheurs ont utilisé le TEDI (Telehealth Evaluation of Development for Infants), un protocole d'évaluation comportementale qu’ils avaient précédemment développé, et qui consiste en un ensemble d’interactions parents-enfants (jeux, lecture…) sur une période de 45 à 90 minutes. Un examinateur a noté la communication sociale, le jeu, l'imitation et d'autres domaines de développement et les parents ont rempli une série de questionnaires. Toutes les familles ont également reçu un petit kit de jouets nécessaires à l'évaluation, comprenant des blocs, un livre doux, des hochets, une petite couverture et des bulles.
Les résultats ont montré que la majorité des nourrissons avaient acquis une probabilité élevée d'autisme à la fois dans les questionnaires remplis par les parents et dans le comportement évalué par l'examinateur.
Selon les chercheurs, ces résultats montrent l’avantage que présente la télémédecine pour conduire à un diagnostic fiable et rapide. « Ma vision est qu'à l'avenir, si une famille est préoccupée par le développement de son enfant, nous pourrions incorporer une évaluation de télésanté comme celle-ci en tant que dépistage de deuxième niveau pour aider les familles à déterminer si la poursuite d'une évaluation diagnostique complète de l'autisme a du sens pour leur enfant », conclut la Pr Talbott.
Article rédigé par Georges Simmonds pour RT Flash
Autism
|
|
|
|
|
|
|
|
Affaiblir la barrière hémato-encéphalique signifie la rendre plus poreuse au niveau de ses vaisseaux sanguins, et c’est exactement ce qu’on fait ici les scientifiques en ciblant une région précise. Ainsi, le médicament administré dans la circulation sanguine peut atteindre le cerveau sans être freiné et altéré par les obstacles naturels du corps humain. Il arrive presque intact jusqu’aux cellules tumorales et libère tout son potentiel.
Dans un essai clinique de phase I, quatre femmes atteintes d’un cancer du sein qui s’était propagé au cerveau ont vu leur tumeur réduite par un médicament connu, appelé Herceptin, grâce à cette méthode. Administré seul, il aurait été impossible d’obtenir ce résultat. Cette nouvelle approche se montre donc très prometteuse. Comme expliqué précédemment, les vaisseaux sanguins du cerveau sont normalement plus imperméables qu’ailleurs, car les cellules qui composent leurs parois sont plus étroitement liées les unes aux autres. Il en résulte une barrière hémato-encéphalique qui contribue à stabiliser l’environnement chimique des cellules cérébrales et à empêcher l’entrée de toxines et de pathogènes potentiels.
Depuis des décennies, les scientifiques tentent de faire passer des médicaments à travers cette barrière. L’une des principales approches, appelée MR-guided focused ultrasound (MRgFUS), consiste à injecter de minuscules bulles dans le sang, puis à diriger des faisceaux d’ultrasons vers la région du cerveau visée. Les ultrasons font vibrer les bulles, ce qui élargit l’espace entre les cellules de la paroi des vaisseaux sanguins. Cette méthode a déjà été présentée auparavant, mais son efficacité n’avait jamais été démontrée. Nir Lipsman, du Sunnybrook Research Institute de Toronto (Canada), et ses collègues, ont utilisé cette technique pour administrer le traitement anticancéreux Herceptin aux tumeurs qui s’étaient propagées au cerveau de ces quatre femmes atteintes initialement d’un cancer du sein.
Après avoir reçu des traitements toutes les trois semaines, jusqu’à six fois, leurs cancers ont diminué de 21 % en moyenne. Le médicament avait été marqué avec un composé légèrement radioactif, ce qui a permis de montrer, par IRM, qu’il avait bien atteint leurs tumeurs cérébrales. « La réduction de la taille des tumeurs est prometteuse mais doit être interprétée avec prudence car des recherches supplémentaires à plus grande échelle sont nécessaires », explique le Dr Rossanna Pezo, oncologue médicale au Odette Cancer Centre à Sunnybrook.
Ces résultats ne signifient pas qu’il existe désormais un remède contre les tumeurs cérébrales, car la plupart des cancers avancés finissent par développer une résistance aux médicaments tels que l’Herceptin. Mais le rétrécissement des tumeurs de ces quatre femmes est une preuve de principe que la barrière hémato-encéphalique peut être franchie. La méthode pourrait à l’avenir aider à traiter d’autres pathologies si des médicaments efficaces sont mis au point, dont notamment des maladies neurodégénératives telles qu’Alzheimer, les maladies du motoneurone ou encore la sclérose en plaques. « D’un point de vue technologique, il s’agit d’une percée majeure », déclare Lipsman.
Article rédigé par Georges Simmonds pour RT Flash
STM
|
|
|
|
|
|
|
|
Pseudomonas aeruginosa est une bactérie pathogène opportuniste présente dans de nombreuses niches écologiques, telles que les racines des plantes, les eaux stagnantes ou encore les canalisations de nos maisons. Naturellement très versatile, elle peut provoquer des infections aiguës et chroniques potentiellement mortelles pour les personnes au système immunitaire fragilisé.
La présence de P. aeruginosa dans les hôpitaux, où elle parvient à coloniser les respirateurs et les cathéters, représente ainsi une sérieuse menace. En outre, sa capacité d'adaptation et sa résistance à un grand nombre d'antibiotiques rendent les infections à P. aeruginosa de plus en plus difficiles à traiter. Il est donc urgent de développer de nouveaux antibactériens pour les combattre.
Des scientifiques de l'Université de Genève (UNIGE) ont identifié un régulateur de l'expression des gènes de cette bactérie, inconnu jusqu'ici, dont l'absence réduit significativement le pouvoir infectieux de P. aeruginosa et sa dangerosité. Ces résultats pourraient constituer une cible novatrice de lutte contre ce pathogène.
Les ARN hélicases remplissent des fonctions régulatrices essentielles en liant et en déroulant les molécules d'ARN afin que celles-ci puissent assurer leurs différentes fonctions. Présentes dans le génome de presque tous les organismes vivants connus, puisqu'on en trouve aussi bien dans les bactéries, les levures, les plantes que l'être humain, les ARN hélicases ont cependant acquis des propriétés spécifiques selon l'organisme dans lequel elles se trouvent.
« Pseudomonas aeruginosa possède une ARN hélicase dont on ignorait la fonction, mais que l'on retrouvait dans d'autres pathogènes », explique Martina Valentini, chercheuse au Département de microbiologie et médecine moléculaire de la Faculté de médecine de l'UNIGE et lauréate d'un subside «Ambizione» du FNS, qui a dirigé ces travaux. « Nous avons voulu comprendre quel était son rôle, en particulier en relation avec la pathogenèse de la bactérie et son adaptation à l'environnement ».
Pour ce faire, l'équipe genevoise a combiné des approches de biochimie et de génétique moléculaire pour déterminer la fonction de cette protéine. « En l'absence de cette ARN hélicase, P. aeruginosa se multiplie normalement in vitro, dans un milieu liquide comme sur un milieu semi-solide à 37°C », rapporte Stéphane Hausmann, chercheur au Département de microbiologie et médecine moléculaire de la Faculté de médecine de l'UNIGE et premier auteur de cette étude. « Pour déterminer si la capacité d'infection de la bactérie était affectée par cette absence, nous devions pouvoir l'observer in vivo dans un organisme complet ».
Les scientifiques ont alors poursuivi leurs recherches grâce à des larves de Galleria mellonella, un insecte modèle pour l'étude des interactions hôte - pathogène. En effet, le système immunitaire inné des insectes possède d'importantes similitudes avec celui des mammifères ; de plus, ces larves sont capables de vivre à des températures comprises entre 5°C et 45°C, ce qui permet d'étudier la croissance bactérienne à différentes températures, y compris celle du corps humain.
Trois groupes de larves ont été observés ; le premier, après injection d'une solution saline, a vu 100 % de sa population survivre. En présence d'une forme habituelle de P. aeruginosa, moins de 20 % ont survécu 20 heures suivant l'infection. Par contre, lorsque P. aeruginosa ne possède plus le gène de l'ARN hélicase, plus de 90 % des larves sont restées en vie. « Les bactéries modifiées étaient devenues quasiment inoffensives, tout en restant bien vivantes », constate Stéphane Hausmann.
Les résultats de ces travaux démontrent que ce régulateur affecte la production de plusieurs facteurs de virulence de la bactérie. « De fait, cette protéine contrôle la dégradation des nombreux ARN messagers codant pour des facteurs de virulence », résume Martina Valentini. « Dans une optique de stratégie thérapeutique antimicrobienne, jouer sur les facteurs de virulence du pathogène, plutôt que de tenter de l'éliminer complètement, permet de donner une chance au système immunitaire de neutraliser naturellement la bactérie, ce qui constitue un risque mineur pour l'apparition de résistance. En effet, si l'on cherche à tout prix à tuer les bactéries, celles-ci vont s'adapter pour survivre, ce qui favorise l'apparition des souches résistantes ».
L'équipe genevoise poursuit actuellement ses travaux en testant des librairies de molécules médicamenteuses déjà connues afin de déterminer, d'une part, si certaines d'entre elles auraient la capacité de bloquer sélectivement cette protéine, et d'autre part, pour étudier en détails les mécanismes d'inhibition à l'œuvre sur lesquels appuyer le développement d'une stratégie thérapeutique efficace.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
L’une des principales causes de mortalité des personnes atteintes de cancer colorectal est le développement de métastases hépatiques. Or, seulement 5 % des cas répondent aux thérapies par blocage des points de contrôle immunitaire (ICB), une stratégie immunothérapeutique pourtant très efficace dans d’autres types de cancer.
« Le cancer colorectal est la deuxième cause de mortalité liée au cancer aux États-Unis et dans le monde », indique Rakesh K. Jain, directeur des E.L. Steele Laboratories for Tumor Biology au MGH, qui a dirigé ces travaux avec Mikaël Pittet, titulaire de la Chaire Fondation ISREC en immuno-oncologie au Département de pathologie et immunologie et au Centre de recherche translationnelle en onco-hématologie de la Faculté de médecine de l’UNIGE, membre de l’Institut Ludwig de la Recherche sur le Cancer, et membre du Swiss Cancer Centre Léman. « Il est donc urgent de mieux comprendre leurs mécanismes de résistance pour mieux les combattre ».
Les scientifiques ont étudié différentes lignées cellulaires de cancer colorectal chez la souris pour savoir comment elles réagissaient à la thérapie ICB. « Dans la plupart des études, les lignées cellulaires tumorales sont injectées sous la peau des souris où elles se développent sous forme de tumeurs sous-cutanées », explique Mikaël Pittet. « Or, il s’avère que ces tumeurs à croissance sous-cutanée répondent bien à la thérapie ICB, contrairement à ce que l’on observe chez les malades. Cela montre que les modèles expérimentaux doivent être raffinés pour appréhender les mécanismes immunitaires impliqués dans le cancer dans toute leur subtilité ».
Pour comprendre cette divergence, l’équipe de recherche a étudié des souris chez lesquelles le cancer se développe dans le côlon avant de métastaser dans le foie, comme chez les êtres humains. Et cette fois-ci, les cellules cancéreuses présentaient une grande résistance à la thérapie ICB à l’instar des cellules humaines. « Nos résultats montrent bien comment l’environnement dans lequel les cellules cancéreuses évoluent peut influencer l’efficacité de l’immunothérapie, et pourquoi il faut en tenir compte pour pouvoir ensuite découvrir des traitements efficaces », détaille Mikaël Pittet.
Les tumeurs primaires colorectales pouvant en général être retirées chirurgicalement, les métastases hépatiques qui en résultent constituent la principale cause de décès. Mais par quels mécanismes ces métastases dans le foie résistent-elles à la thérapie ICB ? La composition des cellules immunitaires présentes dans ces métastases, comparée à celle du cancer colorectal en croissance sous-cutanée, a fourni l’explication. « La grande différence réside dans l’absence dans les métastases hépatiques des cellules dendritiques, des cellules du système immunitaire nécessaires à l’activation des lymphocytes T cytotoxiques », indique Mikaël Pittet. « Or il s’agit précisément du mécanisme biologique sur lequel se base la thérapie ICB. La rareté des cellules dendritiques expliquerait ainsi l’inefficacité de cette thérapie ». Le même phénomène a été observé chez les souris et les patients.
Pour augmenter le nombre de cellules dendritiques dans les métastases hépatiques du cancer colorectal, les scientifiques ont administré à des souris un facteur de croissance (Flt3L) qui favorise la production de cellules dendritiques. Ce traitement a résulté à une nette amélioration de l’efficacité des immunothérapies ICB. Ces résultats mettent en évidence la possibilité de développer de nouvelles thérapies contre les cancers colorectaux métastatiques, en combinant le facteur de croissance Flt3L et la thérapie ICB. Des évaluations cliniques devront maintenant être conduites pour confirmer sur l’être humain ces premiers résultats très encourageants.
Article rédigé par Georges Simmonds pour RT Flash
UNIGE
|
|
|
|
|
|
|
|
La sclérose latérale amyotrophique (SLA), également nommée maladie de Charcot, est une maladie génétique caractérisée par la dégénérescence des cellules nerveuses qui contrôlent nos muscles : les motoneurones. Chez les malades, ce phénomène se traduit par une paralysie progressive à l’issue fatale. Des mutations du gène FUS sont responsables des cas les plus graves, avec un début précoce (avant l’âge de 40 ans) et une progression rapide de la maladie. Ce gène code pour une protéine de régulation de l’ADN et de l’ARN, habituellement localisée dans le noyau des cellules. Mais les mutations associées à la SLA provoquent une délocalisation de la protéine : on la retrouve alors principalement dans le cytoplasme des cellules, en dehors du noyau. Cette anomalie est à l’origine de la neurodégénérescence.
À l’Université de Strasbourg, Luc Dupuis et son équipe cherchent donc comment réduire la quantité de protéine FUS présente dans le cytoplasme des motoneurones des patients, afin de ralentir la progression de la maladie. Pour bien comprendre leurs travaux, il faut revenir sur les caractéristiques de la protéine FUS elle-même. Sa production est autorégulée : son gène code à la fois pour la protéine et pour des mécanismes qui permettent d’ajuster sa synthèse en fonction de la quantité déjà présente dans le noyau cellulaire.
En situation normale, quand la protéine FUS reste dans le noyau, son taux est stable grâce à ce système : ajoutez plus de vingt copies du gène FUS au génome d’une souris, et le niveau de la protéine n’augmentera que légèrement, sans conséquences pour la santé de l’animal ! En revanche, en cas de mutation, la sortie de la protéine FUS vers le cytoplasme déclenche un signal d’alerte : puisque la concentration de FUS dans le noyau diminue, il faut en produire plus. Mais comme la protéine continue à sortir du noyau, ce mécanisme entraîne une production incessante de FUS, qui s’accumule toujours davantage dans le cytoplasme.
Pour briser ce cercle vicieux, l’équipe de Luc Dupuis propose d’insérer un gène FUS sain et complet dans les motoneurones des malades. Les chercheurs espèrent ainsi augmenter la production de la protéine « normale » dans le noyau, mais aussi activer le système d’autorégulation qui s’appliquerait également à l’expression du gène mutant. Cette approche permettrait alors de réduire la quantité de protéines FUS susceptibles de passer dans le cytoplasme. Les chercheurs ont testé leur stratégie chez des souris porteuses de mutations du gène FUS.
Lorsque les animaux portent une mutation sur chacun des deux allèles du gène, ce qui entraîne leur décès dans les heures suivant leur naissance, l’addition d’un gène FUS sauvage prolonge leur survie jusqu’à l’âge adulte. Lorsque les animaux possèdent un seul allèle du gène FUS muté, comme c’est le cas des patients, ajouter un gène sain supplémentaire prévient l’apparition de la faiblesse musculaire.
Suite à ces premiers résultats encourageants, l’équipe travaille désormais à la mise au point d’une thérapie génique fondée sur ce concept, avec le soutien de la SATT Conectus (société d’accélération du transfert de technologies) à Strasbourg. L’idée est de produire un vecteur viral qui permettra d’apporter un gène FUS thérapeutique aux cellules malades, puis de l’injecter au niveau du cerveau et de la moelle épinière pour qu’il pénètre dans les motoneurones. En premier lieu, cet outil sera développé chez le rongeur. Si les effets escomptés sont au rendez-vous, des essais cliniques pourront être envisagés chez l’Homme.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Des chercheurs du Centre de neuroprothèses et au Laboratoire de traitement d’images médicales de l’EPFL ont découvert que chaque individu possède sa propre empreinte cérébrale et que celle ci peut évoluer dans le temps. Ils ont utilisé des IRM qui mesurent l’activité cérébrale sur une période définie. Grâce aux données obtenues, les chercheurs se révèlent capables de produire un résumé de cette activité qui se traduit sous la forme d’un graphique représenté sous forme de matrices colorées. Ce type de technique de modélisation est connu dans les milieux scientifiques sous le nom de "neuroscience des réseaux" ou "connectomique du cerveau". « Tout est dans ces graphiques qui sont communément appelées "connectomes cérébraux fonctionnels". Le connectome est une carte des réseaux neuronaux. En l’observant, il est possible de déterminer ce que la personne est en train de faire durant son scanner. Si elle est inactive ou si elle exécute une tâche par exemple. Les connectomes changent en fonction de l’exercice cérébral et des régions sollicitées », résume Enrico Amico qui a participé à ces travaux.
Grâce à ce tableau, il a pu être établi que chaque cerveau possède sa propre empreinte, comme une empreinte de doigt. Pour arriver à ces conclusions, des scientifiques de l’Université de Yale ont, il y a quelques années, étudié les connectomes issus de deux scanners différents d’un même sujet, réalisés à plusieurs jours d’intervalle. Sur la base des courbes, les chercheurs ont été capables de faire correspondre les deux scanners dans près de 95 % des cas et donc d’identifier la personne à partir de son empreinte cérébrale. « C’est vraiment impressionnant, car on ne se fonde pas sur une image du cerveau, mais uniquement sur les connectomes, qui sont essentiellement des ensembles de scores de corrélation », précise Enrico Amico.
Ce dernier a décidé d’aller plus loin. En effet, identifier l’empreinte cérébrale s’est toujours effectué sur la base d’IRM réalisées pendant plusieurs minutes. Mais est-ce que l’on aperçoit déjà l’empreinte cérébrale après quelques secondes de scanner ? S’il y a un moment dans le temps où elle apparait, combien de temps dure-t-elle ? « Jusqu’à présent, nous étions capables de retrouver l’empreinte entre deux scanners différents, car la période d’analyse restait longue. Se manifeste-t-elle sur une image prise en 5 secondes par exemple ? Où cela prend-il plus de temps ? Et si les empreintes de différentes zones du cerveau apparaissaient à différents moments ? Personne ne possédait les réponses à ces questions. Nous avons donc joué avec l’échelle de temps en la faisant varier », explique Enrico Amico.
En dessous de sept secondes, le chercheur n’a pas pu identifier des informations qui relèvent de l’empreinte cérébrale. Mais, dès 1 min 40 s, certaines données s’avèrent détectables. « On s’est rendu compte que l’on retrouve des indications de l’empreinte cérébrale sur des moments très courts. Nous n’avons donc pas besoin d’une IRM qui résume l’activité cérébrale sur 5 minutes par exemple. On peut se contenter d’un temps d’observation plus concis », remarque le scientifique. Ses analyses ont également permis de montrer que les informations détectées le plus rapidement proviennent des parties sensorielles du cerveau. Notamment celles liées aux mouvements des yeux, de la perception visuelle, de l’attention visuelle entre autres. Au fil du temps, les régions du cortex frontal, celles qui sont associées à des fonctions cognitives plus complexes, commencent également à révéler des informations uniques à chacun d'entre nous.
La prochaine étape de la recherche consiste à comparer les empreintes cérébrales de patients en bonne santé et de patients souffrant d’Alzheimer. « D’après mes premières investigations, il semblerait que toutes ces caractéristiques uniques qui composent l’empreinte cérébrale disparaissent avec la progression de la maladie. Cela devient de plus en plus difficile de reconnaître le patient sur la base de ses connectomes. C’est comme si une personne atteinte d’Alzheimer perdait son identité cérébrale », conclut Enrico Amico.
Dans cette optique, les applications potentielles pourraient inclure la détection précoce de maladies neurologiques où les empreintes cérébrales disparaissent. La technique d’Enrico Amico peut être utilisée chez des patients atteints d'autisme ou d'accident vasculaire cérébral, ou même chez des sujets souffrant de toxicomanie. « Ce n'est qu'un petit pas de plus vers la compréhension de ce qui rend notre cerveau unique : les possibilités que cette découverte pourrait créer sont illimitées ».
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
C'est une première mondiale : pour la première fois, le rein d’un porc a été transplanté à un patient humain sans déclencher de rejet immédiat par le système immunitaire du receveur. Cette avancée majeure pourrait à terme contribuer à remédier à la pénurie d’organes humains disponibles pour les transplantations. La transplantation s’est déroulée au centre médical NYU Langone de New York. Cette prouesse a été réalisée par Revivicor, une filiale de United Therapeutics, la société qui a conçu le porc génétiquement modifié pour que ses tissus ne contiennent plus une molécule connue pour provoquer des rejets quasi immédiats.
Le receveur était un patient en arrêt cérébral présentant des signes de dysfonctionnement rénal et dont la famille a consenti à l’expérience, ont déclaré les chercheurs. Les résultats des tests effectués sur le rein transplanté « étaient plutôt normaux », a dit le docteur Robert Montgomery, le chirurgien qui a dirigé l’étude. Les niveaux de créatinine du receveur, qui indiquent un fonctionnement déficient du rein, ont retrouvé des niveaux normaux après la transplantation, a ajouté le chirurgien.
Rappelons que des valves cardiaques de porc sont également utilisées avec succès depuis des décennies chez l'homme. L'héparine anticoagulante est dérivée des intestins de porc. Des greffes de peau de porc sont également utilisées sur les brûlures et les chirurgiens chinois ont récemment eu recours à des cornées de porc pour restaurer la vue. Plusieurs sociétés de biotechnologie sont en lice pour développer des organes de porc adaptés à la transplantation afin de contribuer à atténuer la pénurie d'organes humains. Plus de 90 000 personnes aux États-Unis sont en effet en attente d'une greffe de rein et, chaque jour, 12 patients décèdent, faute d'organes disponibles.
Article rédigé par Georges Simmonds pour RT Flash
Washington Post
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Tesla va-t-il révolutionner l'assurance-auto ? C'est en touts cas la nouvelle ambition de la firme d'Elon Musk, qui a lancé sa propre compagnie d'assurance en 2019 pour ses véhicules, et vient de mettre sur le marché sa première assurance basée sur le comportement individuel du conducteur. Celle-ci n'est pour le moment disponible qu'au Texas, pour ses Model S, Model 3, Model X et Model Y. Concrètement, la prime payée par l'assuré pourra évoluer chaque mois, selon sa "note de sécurité", basée sur cinq critères : le nombre de déclenchement d'alertes à la collision (un avertisseur qui signale un danger lorsqu'une collision est possible avec un élément situé face au conducteur) par 1000 miles, les freinages brusques, les virages "agressifs" (calculés en G, qui est une unité d'accélération), le respect des distances de sécurité, et le débrayage forcé du système de pilotage autonome (ce qui se produit lorsque le conducteur n'est pas attentif en mode de conduite semi-autonome). Ces données sont collectées directement par le véhicule, sans avoir à installer un boîtier supplémentaire.
Tesla indique qu'elle n'appliquera aucun autre critère pour calculer la prime, parmi ceux qui sont habituellement utilisés par les assureurs (âge, sexe, antécédents de sinistres…), en dehors du kilométrage et du lieu d'habitation. Signalons qu'en Europe, le sexe n'entre plus dans les critères de tarification. En moyenne, la compagnie affirme que ses tarifs seront inférieurs de 20 à 40 % à ceux de ses concurrentes, voire 60 % pour ceux qui détiennent les meilleures note de sécurité.
L'assurance maison de Tesla est également disponible en Californie, mais dans cet Etat la tarification comportementale utilisant les données en temps réel des véhicules n'est pas disponible. Seules des données compilées sur l'ensemble de ses véhicules et anonymisées sont utilisées. En octobre 2020, lors de la présentation de ses résultats trimestriels, le patron de Tesla, Elon Musk, avait indiqué que l'assurance pourrait un jour représenter 30 à 40 % des revenus de son activité automobile, et vouloir devenir une "compagnie d'assurance majeure". Une analyse effectuée par un comparateur aux Etats-Unis a montré en septembre que l'assurance de Tesla en Californie était effectivement moins coûteuse que la moyenne des assureurs pour les clients, mais que ce n'était malgré tout pas la moins chère. La prime annuelle moyenne reviendrait à 3315 dollars. En revanche, ses contrats distribués par l'intermédiaire d'agents d'assurance au Texas étaient moins chers que la concurrence.
Article rédigé par Georges Simmonds pour RT Flash
Tech Crunch
|
|
|
|
|
|
|
|
Le 11 octobre, quatre trains autonomes ont circulé entre les gares Berliner Tor et Bergedorf/Aumühle, sur plus de 20 kilomètres. Cette démonstration a pu être réalisée grâce à la coopération du constructeur Siemens Mobiliy et la ville de Hambourg. D’ici la fin de l’année, un train autonome devrait être mis en service sur les lignes des chemins de fer allemands, la Deutsche Bahn.
Afin de marquer l’ouverture du salon sur le futur de la mobilité, l’ITS World Congress, se déroulant du 11 au 15 octobre, un essai de train autonome a été effectué. Entre deux des gares de la seconde plus grande agglomération allemande, quatre S-Bahn (l’équivalent du RER parisien) ont roulé de manière autonome, sans aucune présence de conducteur. D’après Siemens, les avantages sont conséquents : « Avec notre technologie, nos clients peuvent transporter jusqu'à 30 % de passagers en plus, améliorer considérablement la ponctualité et économiser plus de 30 % d'énergie ».
La Deutsche Bahn se félicite de l’arrivée prochaine de ces S-Bahn autonomes dont la mise en service commerciale est prévue pour décembre. Les trains pourront circuler avec des intervalles de seulement 90 secondes, et le service devrait être beaucoup plus ponctuel. Les chemins de fer allemands ont investi 60 millions d’euros dans le projet. Elle envisage d’étendre ces trains autonomes à l’échelle nationale, que ce soit pour des trains régionaux ou pour des longues distances.
« La nouvelle technologie a déjà été approuvée. Comme elle dispose d'interfaces ouvertes, tous les opérateurs du monde entier peuvent l'utiliser immédiatement pour tous les types de trains », précise le PDG de Siemens AG, Roland Busch. Afin de fonctionner, les trains reçoivent des signaux de commande par radio. La base technique repose sur la future norme européenne de système automatique des trains, l’ATO (Automatic Train Operation) qui possède quatre niveaux d’autonomie. Elle sera couplée à l’actuel système européen de contrôle des trains (ETCS). L’Allemagne rejoint la Chine dans la liste des pays où des trains autonomes sont déployés.
En France, l’autonomisation des trains tend à devenir réalité. L’entreprise Thalès a étroitement travaillé avec Métroling, l’agence régionale de transport de l’Ontario, pour tester son système ferroviaire autonome. D’après le plan d’action pour un train autonome mené par la SNCF, l’objectif est de proposer des TER autonomes pour 2025. La Société nationale des chemins de fer français a déjà procédé à plusieurs essais semi-autonomes ou de trains téléguidés en 2019 et 2020.
Article rédigé par Georges Simmonds pour RT Flash
Siècle Digital
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|