|
|
Edito
Les 5 technologies qui vont changer le destin de l’Humanité
Le Big Data, les objets connectés, l’impression 3D, les énergies renouvelables, les MOOC, cinq technologies qui vont changer le destin de l’Humanité dès ces prochaines années.
Nous qui avons la chance d’être nés au XXe ou XXIᵉ siècle dans un pays dit développé, pensions, en 1960, que les progrès apportés depuis deux siècles avec les révolutions industrielles, que ce soit l’électricité, le téléphone, la télévision, la voiture, le moteur et des milliers d’autres, étaient à nuls autre pareils et que jamais l’être humain ne pourrait connaître dans sa seule existence tous les bouleversements connus en huit générations par ses Anciens.
Et pourtant si.
L’adolescent né avec le XXIᵉ siècle, qui a aujourd’hui 15 ans, n’aura plus, autour de son lit de mort un seul objet qui sera semblable à ceux qui entouraient son berceau.
Et pourquoi cela ?
Parce que nous changeons d’ère.
Jusqu’à ce jour, les progrès accomplis par l’Homme respectaient une progression arithmétique comme chaque année nous comptons les uns après les autres les jours des mois qui se succèdent.
Mais depuis plus de 50 ans, l’Humanité a changé de paradigme. Elle ne compte plus les jours de son destin en ajoutant arithmétiquement les nombres les uns après les autres, 1 – 2 – 3 – 4 – 5 …
Son potentiel de connaissances évolue dorénavant de manière exponentielle.
Si nous prenons un mois de 31 jours comme échelle de référence de la vie d’un être humain né (dans un pays développé) en 1965 et qui, statistiquement, deviendra centenaire, cet être humain est aujourd’hui, alors qu’il a 50 ans, au 15e jour de son mois de vie.
Si les technologies avaient progressé depuis 50 ans au même rythme que par le passé, leurs évolutions auraient donc, dans notre exemple, été multipliées par 15 dans ce demi-siècle.
Or, en respectant la loi empirique édictée par Gordon Moore, co-créateur d’Intel, en 1965, le progrès des technologies n’a pas été multiplié par 15 en 50 ans mais par 16.384 (2¹⁴) !
Nous n’en avons pas conscience mais cette loi empirique a bien été respectée depuis 50 ans. Les microprocesseurs qui animent notre monde aujourd’hui sont 16.000 fois plus performants que les premiers microprocesseurs d’Intel !
Mais si je vous disais qu’il vous faudrait porter le nombre à 1.073.741.824 (1 milliard 73 millions) (2³⁰) dans la 31e case de la vie de notre centenaire, en 2065, vous seriez incrédule.
Et pourtant, cette affirmation se révèlera, avec le temps comme réaliste. Depuis l’énoncé de la Loi de Moore, en 1965, le premier demi-siècle nous paraîtra rapidement lascif quand nous constaterons que l’indice totalisant l’ensemble des progrès technologiques doublera tous les 3 ans dans les cinquante ans qui arrivent.
Très vite, l’ordinateur quantique qui remplacera l’informatique binaire actuelle se nourrissant de bits permettra de relever ce défi.
Cette loi de Moore que nous pensions réservée à l’informatique jusqu’à ce jour va dorénavant s’appliquer à de nombreuses autres technologies.
Le Big Data qui collationne toutes les données émises par l’Homme ou les machines va suivre la même progression exponentielle.
Toutes les activités qui s’appuient sur le Savoir et qui ont pour finalité d’atteindre un coût marginal zéro comme l’affirme magistralement Jérémie Rifkin dans son dernier ouvrage, comme l’a fait l’informatique avec Internet dans ces 50 dernières années, respecteront cette progression exponentielle dans leur développement.
Aujourd’hui, je ne vais aborder, après avoir cité le Big Data, quatre de ces nouvelles technologies qui dès ces prochaines années vont changer le destin de l’Humanité : les objets connectés, les imprimantes 3D, les énergies renouvelables et les MOOC.
Depuis une quinzaine d’années, nous entendions parler des RFID et régulièrement je les citais dans RT Flash. Mais dans ces dernières années, ces puces RFID ont fait un bond extraordinaire en sachant s’alimenter avec l’énergie des terminaux avec lesquels elles communiquent et en voyant leur prix descendre à quelques cents.
Le développement de ces puces RFID que nous appelons maintenant « objets connectés » va être si rapide que chaque être humain devrait être entouré de 5000 à 7000 objets connectés avant 2030.
Ces objets connectés serviront strictement à tout, que ce soit dans notre vie publique ou dans notre vie privée. Comme l’usage du Web aujourd’hui, l’usage de ces objets connectés sera totalement gratuit. Mais mieux encore, comme les données émises par chaque être humain ou par les objets les entourant seront de plus en plus précieuses pour préparer l’Avenir et imaginer les produits du Futur, les GAFA (Google, Apple, Facebook, Amazon) ou leurs remplaçants se battront pour nous acheter ces données, ce qui apporte de nécessaires revenus à une Humanité qui aura perdu par ailleurs des centaines de millions d’emplois détruits par une robotisation à outrance.
Dans le développement sidéral que va connaître notre civilisation dans ces prochaines années grâce aux objets connectés je ne vais aborder qu’un seul sujet : la santé.
En observant les travaux actuellement réalisés par les laboratoires de Google et en décryptant les prédictions de Raymond C. Kurzweil, l’un de ses directeurs, il n’est pas déraisonnable d’affirmer que les nombreuses morts liées, aujourd’hui, au cancer, aux maladies cardio-vasculaires, ou maladies dégénératives et bien d’autres maladies, devraient avoir presque totalement disparu à l’échéance d’une génération.
Pourquoi cela ?
Parce que la médecine curative actuelle (qui traite une maladie seulement lorsque celle-ci s’est déclarée) aura été remplacée grâce aux objets connectés par une médecine prédictive.
Il suffira que quelques cellules dans un organisme soient atteintes par un cancer, alors qu’aujourd’hui il en faut des millions sinon des centaines de millions pour les déceler, pour qu’immédiatement le système automatisé qui surveille la santé de chacun avec des objets connectés vous conseillera (vous obligera ?) d’aller voir immédiatement un spécialiste qui, avec des nanostructures, vous détruira aussi facilement ces cellules cancéreuses qu’on le fait aujourd’hui pour les bacilles avec un antibiotique.
Il en sera de même avec les maladies cardio-vasculaires et bien d’autres maladies évoluant aujourd’hui sans bruit pendant des années et qui, maintenant, grâce à des « objets connectés » qui très tôt détecteront de faibles signaux de souffrance, indétectable avec nos outils actuels de surveillance et d’analyse, permettront de prendre, à temps, toutes les mesures qui élimineront toutes les évolutions fatales. Si ces « objets connectés » avaient existé il y a seulement quelques courtes années, notre ami Jean-Michel Billaut, n’aurait pas eu à souffrir d’une rupture d’anévrisme poplité.
Certes, l’Homme devra continuer à se battre pour découvrir toutes les démarches curatives pour tous ceux qui ayant échappé ou s’étant dérobés à la surveillance des « objets connectés » continueront à souffrir de cancers, de maladies cardio-vasculaires ou de toute autre maladie.
Mais il faut avoir bien conscience que le sort de l’Humanité passe bien à cette médecine prédictive et non par la seule médecine curative telle que la pratiquent aujourd’hui les pays les plus riches car, dans un demi-siècle, avec les 9 milliards de terriens, l’Humanité n’aurait pas la capacité financière de faire face à un tel défi.
Abordons, maintenant, une autre technologie qui elle aussi va changer l’avenir de l’Humanité : l’impression 3D.
Cette impression 3D va devoir très prochainement changer de nom tant elle va de moins en moins ressembler à notre vieille imprimante papier pour, de plus en plus, faire penser à l’image de la création du premier Homme dans la Genèse telle que l’a génialement imaginée Michel Ange dans son immortelle fresque de la Chapelle Sixtine.
L’impression 3D va connaître le même développement exponentiel que celui du « personal computer » (PC) depuis 40 ans.
Comme pour l’informatique, les technologies des imprimantes 3D vont tendre vers un coût marginal zéro. Les « makers » qui se comptent déjà en centaines de milliers à la surface de la Terre (les premières années du développement exponentiel d’une nouvelle technologie sont quasi invisibles pour le commun des mortels !) n’ont pas répété la malheureuse erreur des débuts de l’informatique avec des operating systems (OS) propriétaires. Ils ont choisi, dès l’origine, de partager universellement toutes leurs connaissances au travers de logiciels ouverts.
Les progrès de cette technologie révolutionnaire vont être foudroyants. On a déjà su reconstituer l’exact visage d’une personne horriblement défigurée par un accident et les chercheurs ont déjà su fabriquer des objets complexes faisant appel à de nombreux composants différents. Ces technologies qui permettront à terme de tout faire en partant de rien vont ouvrir des champs encore inconnus à l’imagination de l’Homme.
Pourquoi, ces imprimantes 3D vont-elles prendre une importance si grande ?
Tout d’abord parce que leur mode de production totalement automatisé repose sur une méthode additive et non soustractive.
Ainsi, aujourd’hui, pour fabriquer un meuble il faut abattre un arbre, en couper les branches, enlever l’écorce et le débiter en planches. Il faut ensuite raboter ces planches et les découper pour en faire toutes les pièces du meuble. Quant à la fin de la fabrication le bilan est dressé, nous constatons que seuls 10 % de l’arbre ont été utilisés pour fabriquer le meuble et que quelque 90 % ont été soit jetés, soit sous-utilisés.
Avec une Terre qui n’a pas les capacités naturelles d’accueillir 9 milliards d’êtres humains, avec leurs gaspillages actuels, il est grand temps d’imaginer et fabriquer des produits qui n’utiliseront qu’un strict minimum de ressources naturelles.
De plus, avec la mondialisation intégrale des process de production de ces imprimantes 3D, nous pourrons fabriquer n’importe où dans le Monde n’importe quel objet. Il suffira que vous ayez eu la précaution de prendre la photo 3D (la photo du Futur) de tout objet vous entourant pour qu’immédiatement vous le reproduisiez dans votre Fab-Lab personnel et ce pour un coût très proche de zéro.
Ainsi, même si vous cassez une belle assiette ancienne de belle-maman, vous pourrez en « fabriquer » une nouvelle avant même que votre épouse soit de retour !
Avec ces nouvelles technologies d’impression 3D, il sera devenu absurde de fabriquer à l’autre bout du monde, en Chine par exemple, des objets dont les prix ne feront que décroître alors qu’il vous faudrait des centaines de kilos de CO² pour les faire transporter jusqu’à vous.
Les objets les plus complexes à reproduire se feront dans des Fab-Lab départementaux qui ne seront jamais à plus d’une journée de cheval de votre domicile comme disaient les révolutionnaires en 1790…
Mais dans votre propre unité urbaine, il y aura des Fab-Lab qui pourront fabriquer 90 % des objets vous environnant. Chez vous, si vous le voulez, vous pourrez même avoir des imprimantes 3D qui pourront reproduire la moitié des objets meublant votre intérieur.
Avez-vous bien conscience, vous qui me lisez en cette année 2015, que des Chinois viennent de fabriquer, en une journée, la première maison entièrement fabriquée par une monumentale imprimante 3D et ce pour moins de 300 € ?
Parlons maintenant d’une autre technologie qui, elle aussi, va changer le destin du Monde.
Après des millénaires et des millénaires d’adoration, l’Homme va enfin utiliser le Soleil pour en capter une partie de l’énergie qu’il envoie à notre Terre depuis des milliards d’années pour se fournir totalement en énergie. Les meilleurs spécialistes ont calculé qu’il suffirait à l’Homme de capter seulement 10 % de l’énergie envoyée par le Soleil pour subvenir à tous ses besoins.
Comme cette énergie reçue du Soleil est gratuite et restera gratuite, ceci signifie qu’à terme, à court terme (20 ans) devrais-je même dire avec la courbe exponentielle que va suivre son utilisation, l’énergie utilisée par l’Homme sera quasi gratuite. Sans bruit, le rendement des panneaux photovoltaïques a respecté la Loi de Moore depuis 20 ans et devrait encore la respecter pendant ces prochaines décennies.
Avec la gestion globale de l’énergie grâce au « smart grid » qui révolutionnera autant le monde qu’Internet et le Web en permettant à chacun, à chaque instant, de distribuer et de recevoir toute l’énergie qu’il aura en surplus ou dont il aura besoin.
Cette énergie à un coût marginal zéro sera un élément fondamental de pacification de l’ensemble de notre Planète.
Avant de conclure, abordons un dernier sujet qui va dorénavant dominer tout ce que je viens de traiter et qui va accélérer de façon exponentielle les mutations de l’humanité : les MOOC (Massive Open Online Course) que l’on peut traduire par « Cours en ligne ouvert et massif ».
Jusqu’à maintenant, seule une partie de l’Humanité a pu accéder au Savoir. Ce qui signifie que tous les autres seraient commandés par les robots de demain et ne pourraient en rien les dominer.
Maintenant, alors que les plus grands cours magistraux pourront être accessibles gratuitement, grâce aux MOOC, à tous les habitants de notre Terre, nous allons assister dès ces prochaines années à une réelle explosion de l’intelligence collective et individuelle de l’Humanité.
Les innovations comme les découvertes fondamentales vont éclore par milliers et nous allons assister, avec la traduction automatique dans toutes les langues, à un foisonnement encore difficilement imaginable aujourd’hui de nouveautés qui vont révolutionner tous les secteurs de l’activité humaine et toutes nos connaissances.
Ainsi, ce changement de paradigme qui voulait depuis des millénaires que l’évolution suive une progression arithmétique, et qui maintenant va se transformer en progression exponentielle, va avoir des conséquences fondamentales encore insoupçonnées. Ainsi l’Homme, lui-même, va plus évoluer dans ce prochain siècle qu’il n’a pu le faire, génération après génération, depuis des millions d’années. Cette mutation sera liée au fait que les mutations génétiques seront, elles-aussi, soumises à cette courbe exponentielle qui soutient mon raisonnement depuis le début de cet édito.
C’est dans cette mutation que réside, sans conteste, le plus grand défi auquel l’Homme va devoir faire face depuis son origine.
Les scientifiques voyant arriver ce bouleversement fondamental commencent à spéculer sur le fonctionnement du cerveau humain. Ils affirment que notre cerveau fonctionne avec des lois respectant la physique quantique, ce qui expliquerait que certains génies soient capables d’imaginer en quelques instants des situations que tous les ordinateurs de ce jour réunis en un seul ensemble ne pourraient même ne pas encore approcher.
Il est nécessaire que cette spéculation devienne une réalité car, sans cela, dans des temps maintenant très courts, l’intelligence humaine pourrait être dépassée par la machine que nous aurions inventée.
Mais il est vrai que l’Imagination et l’Amour sont incommensurables et que ces sentiments, qui n’appartiendront pour des millénaires encore qu’à l’Homme, n’auront rien à craindre de toute progression exponentielle.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
Google a déposé un étonnant brevet visant "des méthodes et systèmes pour le développement d'une personnalité pour robot". Pour réaliser cet objectif, la firme mise sur une architecture qui s'appuie sur le cloud, ce qui présente naturellement plusieurs avantages. D'une part, la puissance de calcul et les ressources en informations sont virtuellement infinies, tandis que la "personnalité" peut, au besoin, être transférée dans un nouveau robot.
Il s'agit pour Google de parvenir à donner l'illusion que le robot est capable d'émotions et se comporte comme un humain, faisant preuve, selon les circonstances et l'environnement, de joie, de tristesse, d'humour ou…de tendresse...
Article rédigé par Georges Simmonds pour RT Flash
ZDNet
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des scientifiques américains ont réussi à produire de l'hydrogène de façon plus rapide et moins onéreuse que les méthodes classiques. Cette avancée pourrait contribuer à accélérer l'arrivée à grande échelle de véhicules fonctionnant à l'hydrogène, plus économiques et ne produisant pas de dioxyde de carbone (CO2).
En pratique, les chercheurs de l'Institut de technologie de Virginie (Virginia Tech) ont élaboré un processus biologique pour produire de l'hydrogène rapidement avec de hauts rendements à partir du glucose et du xylose, des sucres que l'on trouve en abondance dans les tiges, les épis et les cosses de maïs. Grâce à un modèle informatique, ils ont pu déterminer les enzymes - molécules permettant d'accélérer les réactions chimiques du métabolisme - qui permettaient d'obtenir le plus d'hydrogène à partir de cette biomasse. Cette approche a permis de tripler le taux de production d'hydrogène comparativement aux taux obtenus en utilisant des concentrations standards, selon les chercheurs.
« Nos travaux montrent qu'il est possible d'envisager une économie fondée sur l'hydrogène, à savoir produire et distribuer de l'hydrogène vert pas cher provenant de la biomasse locale », estime Percival Zhang, professeur au département ingénierie des systèmes biologiques de Virginia Tech. Selon lui, ce nouveau procédé pourrait être mis en œuvre dès 2018.
Article rédigé par Georges Simmonds pour RT Flash
Phys
|
|
|
|
|
|
|
|
Le Centre de compétence eau de Berlin a développé le concept CARISMO : une station d'épuration synthétisant du biogaz utilisé sur place pour produire de l'électricité, tout en diminuant le nombre d'étapes mécaniques nécessaires à la filtration de l'eau.
Les eaux usées non traitées représentent une importante source d'énergie encore peu exploitée. Les substances organiques contenues dans celles-ci contiennent suffisamment d'énergie chimique pour compenser la quantité d'énergie nécessaire pour leur traitement, et même pour générer un surplus. Cette énergie est aujourd'hui sous-utilisée par les stations d'épuration, qui fonctionnent en utilisant principalement deux techniques : les techniques physico-chimiques et les procédés biologiques (aussi bien pour le traitement des eaux usées que pour la production d'eau potable). Le but des traitements biologiques est d'éliminer la pollution organique soluble au moyen de micro-organismes, des bactérie principalement.
Les micro-organismes qui utilisent la matière organique comme source de carbone et d'énergie ont une double action : la matière organique est éliminée lors de la minéralisation du carbone et en outre, la matière organique est en partie transformée en particules solides constituées de micro-organismes issus de la multiplication bactérienne. Ces particules peuvent être facilement séparées de la phase liquide par des moyens physico-chimiques, tels que la décantation.
Lors de ces processus, le potentiel énergétique est complètement perdu. En Allemagne, environ 4 400 GWh d'électricité sont utilisées chaque année pour le traitement des eaux usées, soit la consommation annuelle d'une ville de 2,6 millions d'habitants. Afin de mieux exploiter le potentiel énergétique considérable des eaux usées, un nouveau processus de traitement des eaux usées a été développé par le Centre de compétences eau, Veolia Allemagne et la Régie de l'eau de Berlin. Le projet CARISMO ("CARbone IS MOney", le carbone est de l'argent) vise à exploiter au maximum ce potentiel pour produire de l'électricité.
L'idée est de séparer les substances organiques de l'eau en amont du traitement, pour les transférer directement dans les installations de digestion et de traitement des boues. Grâce à l'ajout d'additifs chimiques, une grande partie de la matière organique peut être filtrée et utilisée comme "boues primaires" synthétisant du biogaz, lui-même utilisé sur place pour produire de l'électricité.
La nouvelle méthode de filtration des eaux usées a été testée pendant 18 mois sur une installation pilote à la station d'épuration de Stahnsdorf à Berlin. Il a été constaté que les tamis à tambour peuvent être exploités de manière stable sur la durée et avec un faible entretien.
Grâce à ce prétraitement, 75 % des substances organiques et 80 % de la substance fluorescente peuvent être séparées en amont. La boue organique récupérée après épaississement mécanique permet de produire 80 % en plus de biogaz que dans le cas d'un système de traitement en aval. Dans le même temps, la consommation d'énergie diminue de 50 % pour le traitement des eaux usées. Le bilan énergétique du processus de traitement des eaux usées devient ainsi positif.
Article rédigé par Georges Simmonds pour RT Flash
CARISMO
|
|
|
|
|
|
|
|
Des chercheurs des laboratoires Chimie et interdisciplinarité (CNRS/Université de Nantes), Génie des procédés − environnement − agroalimentaire (CNRS/Université de Nantes/ONIRIS/Ecole des Mines de Nantes), Matériaux pour infrastructures de transports (Ifsttar), Conditions extrêmes et matériaux (CNRS), en collaboration avec l'entreprise AlgoSource Technologies, ont développé un bio-bitume, dont les propriétés semblent proches du bitume actuel qui recouvre nos routes.
Dans le cadre du programme Algoroute, financé par la Région Pays de la Loire, ces chercheurs ont obtenu du bio-bitume en valorisant des résidus de microalgues, issus par exemple de l'extraction de protéines hydrosolubles des algues pour l'industrie cosmétique. Ils ont utilisé un procédé de liquéfaction hydrothermale, c’est-à-dire d'eau sous pression qui permet de transformer ces déchets de microalgues en une phase visqueuse noire hydrophobe ayant un aspect proche de celui d'un bitume pétrolier.
Bien que la composition chimique du bio-bitume soit très différente de celle du bitume issu du pétrole, ces deux revêtements ont des propriétés proches. Liquide au-dessus de 100°C, le bio-bitume permet d'enrober les agrégats minéraux ; viscoélastique de -20°C à 60°C, il assure la cohésion de la structure granulaire, supporte les charges et absorbe les contraintes mécaniques.
Cette innovation pourrait à terme révolutionner la construction routière, encore largement dépendante du pétrole. En outre, ce bio-bitume n'est pas d'origine agricole et n'entre pas en compétition avec les productions alimentaires.
Article rédigé par Georges Simmonds pour RT Flash
SCE
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
La planète Mars se situe entre 55 et 400 millions de kilomètres de la Terre, selon les positions respectives des deux planètes autour du Soleil. Dans l'état actuel de la technique, un voyage habité vers Mars devrait durer au moins six mois, ce qui ne va pas sans poser de sérieux problèmes, confinement prolongé, exposition aux radiations cosmiques, stockage des vivres, etc..
Pour tenter de raccourcir ce temps de voyage, la Nasa a récemment choisi de financer le développement du projet VASIMR, acronyme anglais qui désigne une fusée à propulsion magnéto-plasmique à impulsion spécifique variable. L'avantage de cette technologie est de pouvoir utiliser 320 kg d'argon par an, contre 7 tonnes d'ergol (à 25.000 dollars le kilo) avec les moteurs actuels.
Un réacteur nucléaire pourrait, en théorie, fournir l'énergie capable de chauffer indéfiniment le gaz pour produire le plasma. Ce mode de propulsion consiste à chauffer du gaz argon jusqu'à plusieurs millions de degrés Celsius, ce qui permet d'obtenir un faisceau de plasma qui va être ensuite accéléré puis éjecté à travers une bobine électromagnétique de diamètre variable, permettant d'obtenir une poussée plus ou moins forte selon son degré d'ouverture.
Première étape de ces recherches : réaliser un prototype pouvant fonctionner à une forte puissance pendant au moins 100 heures. Quant au temps de voyage vers Mars, il pourrait être ramené, avec cette technologie VASIMR, à seulement 39 jours…
Article rédigé par Georges Simmonds pour RT Flash
The Huffington Post
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon le dernier rapport coordonné par le climatologue Jean Jouzel, la montée du niveau de la mer n’épargnera pas les côtes françaises. Cette étude montre en effet qu’en Méditerranée comme sur la côte Atlantique, la hausse des mers françaises sera très proche de celle prévue en moyenne sur les eaux de la planète.
L'étude précise que la mer gagnera, par rapport à son niveau mesuré entre 1986 et 2005, au moins 17 à 31 cm en cinquante ans (entre 2046 et 2065) et 26 à 55 cm en cent ans (entre 2081 et 2100), selon les calculs du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec).
Mais si les émissions de gaz à effet de serre ne diminuent pas, cette hausse pourrait être encore plus élevée et atteindre les 45 à 82 cm de plus d’ici à la fin du siècle. Déjà, au cours du siècle dernier, la mer a grimpé globalement de 1,7 millimètre par an entre 1901 et 2011 (+18,7 cm) et depuis 1993, elle a presque doublé de vitesse, gagnant 3,2 mm/an. A Brest, entre 1980 et 2004, elle a pris 3,0 mm/an, tandis qu’à Marseille, entre 1980 et 2012, la hausse est de 2,6 mm/an.
Ce rapport souligne également que cette montée globale du niveau des mers est provoquée par trois facteurs d'importance comparable : en premier lieu, la hausse des températures provoque une expansion thermique des eaux qui recouvrent la planète : la mer, plus chaude, prend plus de volume. Deuxièmement, la fonte des glaciers et des calottes glaciaires aux pôles explique pour un autre tiers l’élévation du niveau de la mer. Enfin, la troisième cause est liée au pompage de l’eau des nappes phréatiques, qui après utilisation par l’homme, pour l’irrigation par exemple, termine dans les océans.
Article rédigé par Georges Simmonds pour RT Flash
Rapport
|
|
|
|
|
|
|
|
La jeune société anglaise BioCarbon Engineering, fondée par Lauren Fletcher, ancien ingénieur de la NASA, a mis au point une technologie innovante, utilisant des drones, pour lutter contre la déforestation.
L'objectif à terme est de planter un milliard d'arbres en un an grâce à l'utilisation des nouvelles technologies et jusqu'à présent, la seule option disponible était de planter les arbres à la main.
La solution proposée par BioCarbon Engineering consiste d'abord à repérer la zone à planter ou à replanter. Ensuite, des appareils sont envoyés à quelques mètres au-dessus du sol pour éjecter les graines avec suffisamment de puissance pour qu'elles s'enfoncent à la profondeur nécessaire pour germer.
Avantages de cette nouvelle technique : une efficacité accrue à moindre coût. Aujourd'hui, sur les 26 milliards d'arbres arrachés chaque année, seulement 15 milliards seraient replantés. Selon les propos de Lauren Fletcher, deux opérateurs aux commandes de plusieurs drones pourraient planter les graines de 36.000 arbres par jour, pour seulement 15 % du prix des méthodes traditionnelles. Cette rentabilité a permis à BioCarbon Engineering d'être nominé au concours "Drones for Good", lancé par le gouvernement d'Arabie Saoudite dans le but de promouvoir les avancées technologiques qui permettront de lutter contre le changement climatique.
Article rédigé par Georges Simmonds pour RT Flash
RT
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une équipe scientifique lyonnaise de la jeune société Kallistem, qui regroupe sept chercheurs de haut niveau, a réussi, pour la première fois au monde, à recréer de toutes pièces des spermatozoïdes, en laboratoire, à partir d'une biopsie testiculaire d'homme ne créant naturellement pas de spermatozoïdes…
« L'équipe scientifique des Docteurs Marie-Hélène Perrard et Philippe Durand est la seule à avoir mis au point un bioréacteur qui permet de réaliser une spermatogénèse in vitro totale à partir de tissu testiculaire prélevé par biopsie, un processus extrêmement complexe qui prend 72 jours », précise Isabelle Cuoc, Présidente de Kallistem.
Pour réaliser cet exploit scientifique, les chercheurs ont prélevé des extraits de pulpe testiculaire contenant des cellules souches immatures puis les ont mis en culture dans une boîte de Pétri. Ces cellules se sont ensuite développées pendant 9 semaines, avant de se différencier en spermatozoïdes complets et totalement fonctionnels. Il suffit ensuite de les conserver par cryogénisation, dans de l'azote liquide, jusqu'à ce qu'ils soient utilisés dans le cadre d'une fécondation in vitro avec micro-infection.
La prouesse technique réside essentiellement dans le milieu de culture et de maturation de ces cellules in vitro, en l'occurrence, une boîte de Pétri en trois dimensions qui reproduit à la perfection les conditions physiologiques de l'organisme, recréant notamment la barrière sanguine et la structure cellulaire des testicules naturels…
Ce procédé innovant, unique au monde, qui a été développé par la société lyonnaise Kallistem, basée dans les locaux de l'ENS-Lyon, s'appuie sur deux brevets déposés : le premier concerne le bio-réacteur (au sein duquel se déroule la maturation des cellules) et fait l'objet d'un accord d'exploitation de licence avec l'Université Lyon 1. Le second porte sur le procédé de culture lui-même.
Après les indispensables essais cliniques, Kallistem pourrait démarrer son activité commerciale en 2019 et devenir ainsi un acteur majeur sur un marché mondial de l'infertilité masculine estimé à 2,3 milliards d'euros et qui est en plein essor, avec 50 000 nouveaux cas par an dans les pays développés. Cette technique pourrait, à terme, constituer une réponse à l'infertilité des 120 000 Français atteints d'azoospermie non obstructive, dont les testicules ne produisent pas de spermatozoïdes malgré la présence de cellules germinales. Elle pourrait également être utilisée dans une approche préventive, chez les jeunes garçons non encore pubères qui ont été traités pour un cancer et dont la fertilité est menacée par une chimiothérapie.
Article rédigé par Georges Simmonds pour RT Flash
Communiqué de Kallistem
News Medical
Pharmabiz
|
|
|
|
|
|
|
|
La complexité du cerveau humain et des processus impliqués dans le développement et la progression de la maladie d'Alzheimer sont des freins à la découverte de nouveaux traitements. Les instituts nationaux de la santé (NIH) ont lancé, en mars 2015, un portail de Big Data sur la maladie d'Alzheimer (AMP-AD Knowledge Portal), incluant une première vague de données, destinées à la communauté scientifique. Cette ressource de partage et d'analyse de données vise à développer plus rapidement et plus efficacement de nouveaux traitements et méthodes de diagnostics pour la maladie d'Alzheimer.
Le portail de partage de données ouvert à l'initiative des NIH va permettre de rassembler un grand nombre de données moléculaires et cliniques.
Développé par Sage Bionetworks, une association à but non lucratif basée à Seattle, le portail hébergera plusieurs séries de Big Data récoltées sur les cinq prochaines années par des groupes multidisciplinaires. Des bioinformaticiens, ainsi que des scientifiques d'autres domaines, travailleront collectivement afin d'appliquer des méthodes de pointe pour intégrer des données moléculaires et cliniques obtenues à partir de plus de 2000 échantillons de cerveau post-mortem. Le portail de partage de données accessible à l'ensemble de la communauté scientifique devrait accélérer la construction de modèles prédictifs de la maladie d'Alzheimer et permettre d'identifier de nouvelles cibles thérapeutiques dans les processus moléculaires de cette maladie neurodégénérative.
Article rédigé par Georges Simmonds pour RT Flash
NIH
|
|
|
|
|
|
|
|
Pour la première fois, une équipe de l’Inserm a tenté de calculer de manière globale les coûts de santé liés directement à la pollution, en France. Résultat : une estimation comprise entre 1 milliard et 2 milliards d’euros par an, soit 15 % à 31 % du déficit 2012 (5,5 milliards d’euros) pour la branche assurance maladie du régime général de la sécurité sociale. Cette estimation ne comprend que les coûts attribuables à la pollution de l’air au travers de la prise en charge par le système de santé des 5 maladies respiratoires les plus répandues (BPCO, bronchites chronique et aiguë, asthme et cancer des voies respiratoires) des hospitalisations pour ces pathologies, ainsi que des hospitalisations liées aux pathologies cardiovasculaires.
Rappelons que l'étude Aphekom a estimé à des milliers de décès chaque année, probablement aux alentours des 10.000, au-delà des centaines d’hospitalisations cardiaques et respiratoires, les effets de la pollution en France.
Selon ces travaux, l’espérance de vie à 30 ans pourrait augmenter de 3,6 à 7,5 mois si les concentrations moyennes annuelles de PM2,5 respectaient la valeur guide de l’OMS (10 µg/m3). Selon cette étude, la pollution est non seulement à l’origine de 15 % des asthmes chez l’enfant mais les microparticules sont reconnues comme cancérigènes et facteurs d’infections ORL, de rhumes, de grippes et de maladies cardio-vasculaires.
Article rédigé par Georges Simmonds pour RT Flash
ERS
|
|
|
|
|
|
|
|
Dans leur majorité, les tumeurs cancéreuses sont repérées relativement tard, ce qui rend la guérison plus difficile. Mais des chercheurs suisses de l'Ecole polytechnique fédérale de Lausanne (EPFL) ont mis au point un système qui permet de repérer rapidement dans l'haleine la présence d'un cancer de la gorge ou de la bouche. Ce nouvel outil fonctionne aussi bien avec un ordinateur qu'un téléphone portable.
Les chercheurs du Laboratoire de capteurs, actuateurs et microsystèmes (SAMLAB) de l'EPFL, dirigés par Nico de Rooij à Neuchâtel, ont développé des micro-capteurs qui permettent de différencier une haleine de patient sain de celle d'un patient malade. Le souffle humain contient en effet des centaines de composés organiques volatils (COVs), dont la présence et la concentration changent selon l'état de santé.
Les chercheurs ont utilisé la spécificité de cellules cancéreuses qui ont un métabolisme distinct par rapport aux cellules saines et produisent des substances différentes. Les chercheurs sont parvenus à détecter ces nuances biochimiques grâce à un réseau de micro-capteurs dits « de tension de surface » capables d'identifier les gaz et leur concentration.
« Il existe déjà sur le marché des méthodes de détection des molécules appelées "nez électroniques", mais ils ne savent pas bien analyser des gaz très complexes, tels que l'haleine », explique Nico de Rooij.
En collaboration avec le Swiss Nanoscience Institute de l'Université de Bâle, les chercheurs de l'EPFL ont pu tester leur dispositif sur des patients du Centre hospitalier universitaire vaudois (CHUV) malades ou ayant subi un traitement chirurgical de leur cancer de la gorge. Les résultats de ces tests ont montré que ces capteurs étaient très efficaces…
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
C'est peut-être un tournant dans le traitement de la sclérose en plaques : selon des recherches de deux équipes de la George Washington University et de la Case Western Reserve University, deux nouvelles molécules, le "miconazole" et le "clobétasol" pourraient traiter la sclérose en plaques "à la source" en évitant la démyélinisation et en "remyélinisant", grâce à la production de nouveaux oligodendrocytes, les cellules qui fabriquent la myéline.
La sclérose en plaques est une maladie du cerveau et de la moelle épinière, caractérisée par une attaque inflammatoire du système immunitaire du corps contre la myéline, le revêtement protecteur qui entoure les fibres nerveuses. Une fois la myéline lésée, les signaux électriques ne peuvent plus être transmis et ce dysfonctionnement grave entraîne des symptômes handicapants, allant d’un engourdissement des membres à la paralysie ou la cécité. Cette maladie toucherait environ 2,3 millions de personnes dans le monde, dont deux tiers de femmes.
Ces travaux montrent que ces deux médicaments, le miconazole et le clobétasol agissent en effet "à la source" en inversant le processus de démyélinisation, par augmentation du nombre de nouveaux oligodendrocytes. C’est donc une toute nouvelle voie thérapeutique en regard des thérapies actuelles qui se concentrent sur l’arrêt des attaques du système immunitaire pour ralentir la progression de la maladie. C’est en passant en revue une banque de petites molécules bioactives que les chercheurs ont découvert ces molécules capables de provoquer la production de myéline via les cellules progénitrices d’oligodendrocytes.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des scientifiques tchèques de l'Université Charles, dirigés par Robert Jech, Tereza Serranova and Tomas Sieger, ont découvert une catégorie de neurones dans le cerveau réagissant seulement aux émotions.
Des micro-électrodes étaient placées sur le cerveau des volontaires et l'étude des résultats a permis de montrer que certains neurones ne réagissaient qu'aux stimuli émotionnels. Dans cette étude, les réponses des patients étaient enregistrées alors qu'ils étaient encore éveillés. Ainsi, les patients de l'étude pouvaient coopérer et passer les tests psychologiques en temps réel.
Les patients ont notamment été soumis à des images véhiculant trois types d'émotions : positive, neutre, négative. Les chercheurs demandaient aux patients de décrire la nature des émotions qu'ils ressentaient et leur intensité. Pendant que les scientifiques réalisaient l'expérience, ils ont découvert que le fonctionnement de certains neurones reflétait les résultats donnés par les patients eux-mêmes pour évaluer les émotions ressenties.
Les scientifiques suspectaient depuis longtemps l'existence d'un lien entre le monde des neurones biologiques et celui des émotions humaines. Mais cette expérience a révélé ce lien neurobiologique à l'échelle microscopique.
Article rédigé par Georges Simmonds pour RT Flash
PNAS
|
|
|
|
|
|
|
|
Chaque année, dans le monde, plus de 400 millions de personnes sont infectées par la dengue et 25.000 en meurent. Cette maladie est une infection virale, transmise par la piqûre d’un moustique. La dengue provoque de fortes fièvres dans le meilleur des cas, des hémorragies dans les plus sévères. En attendant l'arrivée prochaine d'un vaccin partiellement efficace contre ce virus, Luke Alphey, un zoologiste anglais, a imaginé une lutte originale contre les moustiques responsables de la transmission de la dengue : l’ingénierie génétique. Pour cette découverte, il a reçu le Prix de l’inventeur européen dans la catégorie Recherche.
Ce chercheur travaille depuis dix ans sur la technique dite de l’insecte stérile dans la lutte contre les insectes ravageurs et vecteurs de maladies. La dengue est transmise par la piqûre des moustiques femelles de la famille Aedes. La stratégie développée et brevetée par Luke Alphey repose sur le génie génétique. Les moustiques élevés en grande quantité sont modifiés de telle sorte que leur progéniture décède avant d’avoir dépassé le stade de larve. Des essais ont été menés au Brésil, au Panama, en Malaisie et, après avoir relâché localement de grandes quantité de mâles stériles, la population de moustiques a été réduite de près de 90 %. Cette méthode innovante n'entraîne aucun dommage environnemental et reste spécifique à une seule espèce.
Article rédigé par Georges Simmonds pour RT Flash
Ag-Ip
|
|
|
|
|
|
|
|
Grâce à l’utilisation d’ondes acoustiques, des scientifiques américains sont parvenus à détecter et isoler des cellules cancéreuses (CCT) circulant dans le sang, ce qui constitue une réelle prouesse quand on sait que ce type de cellule est extrêmement rare (une dizaine par millilitres de sang).
La présence de ces CCT révèle le développement de métastases et donc l’efficacité du traitement en cours. En effet, les cellules cancéreuses migrent de leur tumeur originale pour aller, via la circulation sanguine, former d’autres tumeurs - les métastases - sur d’autres tissus et organes.
Cette technologie acoustique, développée dans les laboratoires de trois universités (Massachusetts Institute of Technology, Penn State University et Carnegie Mellon University) est basée sur la microfluidique. Le principe consiste à faire circuler des fluides dans des canaux microscopiques pour agir sur leur contenu en exerçant différentes actions, comme par exemple l’application d’un champ électrique.
Pour parvenir à cette détection des CCT, les chercheurs exposent à un faisceau d'ondes sonores un échantillon de sang chargé de cellules sanguines et de quelques cellules tumorales, circulant dans un microcanal. De chaque côté du canal se trouve un dispositif qui émet une onde acoustique. Quand ces deux ondes se rencontrent, elles en produisent une autre dite stationnaire qui va exercer une pression sur les cellules, qu’elle pousse plus ou moins fortement selon leur taille.
Cet effet sonore particulier permet alors de "trier" les cellules cancéreuses qui sont plus grosses que les cellules sanguines. Il ne reste alors plus qu’à collecter les cellules tumorales après qu’elles aient été séparées du flot des cellules sanguines. Un échantillon est alors traité en seulement 5 heures, ce qui rend le procédé compétitif avec les techniques actuelles. En outre, cette technique présente l'avantage de ne pas détruire les cellules cancéreuses, ce qui permet aux médecins de les étudier pour identifier leur provenance.
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
Selon une étude américaine dirigée par Scott Grafton, spécialiste en neurosciences à l’Université de Santa Barbara, la capacité à spécialiser son cerveau et à le laisser fonctionner de manière plus autonome permettrait à certains sujets d'apprendre mieux et plus vite.
Dans cette étude, les participants devaient s’entraîner à reproduire, avec les doigts, des séquences visuelles affichées sur un écran. Un exercice difficile, destiné à laisser de la place à l’apprentissage au cours des six semaines de l’expérience. Bien sûr, l’activité cérébrale des sujets était suivie, afin d’"enregistrer" les schémas de connexions entre les aires du cerveau qui se mettaient en place lors de l’exécutions de la tâche.
Les chercheurs ont montré que deux aires mobilisées étaient, d'une part, une région sensorimotrice, afin de reproduire les séquences avec les doigts, et d'autre part, une région visuelle, pour traiter l’information affichée à l’écran. Ces deux modules, situés assez loin l’un de l’autre dans le cerveau, communiquaient entre eux en synchronisant l'activité de leurs neurones respectifs.
Grâce à une nouvelle méthode d’analyse, ces chercheurs ont ensuite montré que l’apprentissage progressait par autonomisation : au fur et à mesure que les sujets s’amélioraient dans la tâche, les modules sensorimoteur et visuel communiquaient de moins en moins, jusqu'à ce que chaque module devienne indépendant.
Ils ont ainsi montré qu’un autre réseau neuronal, qu’ils ont baptisé réseau "pilote", permettait de prédire de manière satisfaisante l’apprentissage des sujets. Ce réseau pilote ne se déploie pas dans les aires perceptives et motrices mais entre elles, au niveau de zones généralement associées au contrôle cognitif, ayant la capacité d’adapter ses pensées et ses actions en fonction d’un but.
De manière étonnante, ces recherches montrent que ce n’est pas le renforcement de ce réseau pilote qui facilite l’apprentissage, mais au contraire son désengagement. « Chez les sujets qui apprennent lentement, tout se passe comme si les régions du cerveau en charge du contrôle cognitif s’interposaient. Comme s’ils réfléchissaient trop pour exécuter la tâche », explique Danielle Bassett, de l’Université de Pennsylvanie.
Article rédigé par Georges Simmonds pour RT Flash
Article sur l'apprentissage autonome
|
|
|
|
|
|
|
|
Des scientifiques de l'Université de l'Australie du Sud (UniSA) et du Third Military Medical University en Chine ont découvert qu'un médicament appelé edaravone pourrait soulager les symptômes cognitifs progressifs de la maladie d'Alzheimer. Déjà disponible dans certains pays asiatiques, l'edaravone s'emploie notamment dans le traitement de l'AVC ischémique, le type d'AVC le plus commun, causé par les caillots dans le sang.
Dans les essais sur les souris, la molécule en question a amélioré l'apprentissage et la mémoire en jouant sur plusieurs mécanismes, selon l'auteur principal de l'étude, le Professeur Xin-Fu Zhou de UniSA. "L'edaravone peut se lier avec le peptide amyloïde toxique, lequel joue un rôle majeur dans la dégénérescence des neurones", observe le Professeur Zhou. Il ajoute que ce médicament attaque les radicaux libres, supprimant ainsi le stress oxydatif, comme le font les antioxydants. Or, le stress oxydatif serait, selon lui, la cause principale de la dégénérescence du cerveau chez les patients souffrant de la maladie d'Alzheimer.
Cette molécule semble également bloquer la production de bêta-amyloïde, une série de peptides d'acides aminés qui jouent un rôle clé dans la progression de la maladie d'Alzheimer, puisqu'ils composent les plaques amyloïdes qui se forment dans le cerveau malade. De plus, le médicament empêche l'hyper-phosphorylation Tau, qui génère des enchevêtrements perturbateurs dans les cellules du cerveau.
Des essais cliniques sur des patients humains doivent être réalisés avant que les médecins n'envisagent un traitement à l'edaravone pour leurs patients atteints de la maladie d'Alzheimer, précise le Professeur Zhou.
Article rédigé par Georges Simmonds pour RT Flash
PNAS
|
|
|
|
|
|
|
|
Autorisé depuis des décennies aux Etats-Unis, un médicament anti-allergique bon marché pourrait s'avérer efficace contre le virus de l'hépatite C, selon les résultats d'une étude américaine qui a montré, sur la souris, que ce médicament, le chlorcyclizine HCl (CCZ) qui coûte 50 cents le comprimé, pourrait être utilisé pour traiter des personnes atteintes d'hépatite C.
Cette infection chronique touche de 130 à 150 millions de personnes dans le monde et en tue de 350.000 à 500.000 par an. Elle peut rester longtemps indétectable et provoque une inflammation du foie qui entraîne souvent des complications graves comme la cirrhose ou le cancer. Il existe à présent certains médicaments très efficaces contre l'hépatite C mais leur coût peut dépasser les 50 000 euros pour un traitement moyen d'une durée de trois mois.
"Grâce à un système innovant de criblage, nous avons pu identifier le CCZ pour neutraliser le virus de l'hépatite C", explique Anton Simeonov, directeur scientifique du Centre des sciences translationnelles avancées aux Instituts nationaux de la santé. Identifier des molécules déjà autorisées par les autorités "pourrait offrir une voie plus rapide de découverte et de commercialisation de nouveaux traitements pour toutes les maladies", selon lui.
La prochaine étape de cette recherche sera de tester l'antiallergique CCZ sur des humains. "Le CCZ pourrait un jour offrir une alternative abordable aux autres traitements très coûteux, surtout dans les pays en développement", relève le Docteur Griffin Rodgers, directeur du NIDDK.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Des biologistes de l’Université de Californie à San Francisco ont découvert, dans le « tissu adipeux » d’adultes, un type encore méconnu de cellule graisseuse (ou adipocyte) que le métabolisme utilise pour réguler la chaleur corporelle (thermorégulation) sans faire appel à l’effort musculaire ni au mécanisme de frissons produisant de la chaleur. Ces cellules graisseuses dites « grises », dont on supposait l’existence depuis quelques années, utilisent les gouttelettes de graisse emprisonnées dans leur membrane pour produire de la chaleur sans passer par l’activation musculaire ; quand le corps est à sa température d’équilibre (environ 37 °C), le surplus de chaleur est évacué à l’extérieur.
Ces travaux ont montré que ces cellules grises particulières chez les adultes sont créées à partir des cellules graisseuses blanches (« mauvaise graisse ») qui ne peuvent être consommées qu’au moyen de l’effort musculaire.
Les chercheurs ont réussi à isoler des cellules grises dans la graisse des adultes, à les cultiver par clonage et à les caractériser génétiquement. Il leur est dès lors possible de tester l’action de substances chimiques visant à favoriser leur production à partir de cellules blanches.
Ces travaux montrent donc qu'il est envisageable de développer un médicament transformant une partie de la graisse blanche en graisse grise, laquelle serait brûlée par l'organisme pour produire de la chaleur corporelle, sans recourir aux mécanismes hormonaux du pancréas ni solliciter les muscles…
Article rédigé par Georges Simmonds pour RT Flash
Science Daily
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Dans le cadre du projet européen CityMobil2, six navettes autonomes ont été déployées sur le campus de l'Ecole polytechnique fédérale de Lausanne. Ces essais visent à valider les technologies embarquées et à apporter des adaptations réglementaires pour un déploiement à plus grande échelle. Ces navettes autonomes peuvent accueillir dix personnes et se déplacer à une vitesse maximale de 20 km/h. Cette initiative vise à compléter l’offre de transports publics classique pour répondre à la problématique du dernier kilomètre parcouru.
Développées par le français EasyMile, les navettes sont dotées de systèmes laser pour se déplacer et détecter les éventuels obstacles. La société suisse BestMile se charge, quant à elle, de la gestion de la flotte. Une fois les véhicules en fonction, l’enjeu consiste à gérer et optimiser leurs déplacements en temps réel.
Cette phase d’expérimentation vise à valider la technologie embarquée, démontrer que le système fonctionne, proposer des adaptations règlementaires et étudier l’acceptation des utilisateurs face à ces nouveaux modes de transport. A terme, BestMile veut développer un système de transport à la demande pilotable depuis un smartphone. « Notre objectif est de proposer un système le plus flexible possible. Lorsque l’utilisateur demandera un véhicule, le système calculera quel est le véhicule autonome le plus proche ou le plus à même d’effectuer le trajet commandé ». BestMile espère pouvoir tester une version simplifiée de ce service dès l’été prochain.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Des chercheurs du MIT ont mis au point un algorithme qui permet de contrôler intelligemment les systèmes de feux d’une ville. Ce programme peut réaliser des simulations en direct des différentes situations, en prenant en compte de nombreux paramètres : comportement du conducteur, type de véhicule, complexité des intersections…
Cet outil vise à optimiser le temps de voyage entre les principales artères et, par conséquent, de réduire la consommation de carburant. Pour le mettre au point, ces chercheurs se sont basés sur des tests dans la ville de Lausanne en Suisse. Une simulation qui permettait aux chercheurs d’avoir une représentation du comportement de 12 000 véhicules par jour répartis sur les 17 principales artères de la ville.
Leur modèle, en intégrant et en analysant bien plus de paramètres que les systèmes classiques, s'est montré plus performant que ces derniers. A terme, ce logiciel pourrait non seulement fluidifier le trafic en adaptant les feux tricolores à l’état de la circulation, mais encore devenir un véritable outil d'aménagement urbain.
Article rédigé par Georges Simmonds pour RT Flash
Purdue
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|