|
|
Edito
La voiture de 2025 sera entièrement automatique
Il y a quelques jours, la société américaine INRIX a publié une étude très intéressante sur l’évolution du trafic automobile en Europe. On y apprend notamment que, sous l’effet de la reprise économique, le niveau des embouteillages sur les routes est reparti à la hausse en 2013 en Europe pour la première fois en deux ans.
Selon cette étude, les embouteillages en Europe ont augmenté chaque trimestre de 6 % au cours des trois derniers trimestres de 2013. S’agissant de la France, chaque automobiliste a passé en moyenne 35 heures dans les bouchons en 2013 mais ce temps d’immobilisation a été nettement plus élevé dans les grandes agglomérations, de l’ordre de 47 heures environ. Piètre consolation, la France, plombée par sa situation économique très difficile et son niveau de chômage élevé, a amélioré globalement la fluidité de son trafic routier de 5 % en 2013, par rapport à l’année précédente.
Cette étude montre que les coûts directs et indirects imputables à la congestion du trafic routier dans les grandes agglomérations françaises représentent 5,9 milliards d'euros en 2013, soit une dépense annuelle d’environ 680 € par foyer urbain. Selon Inrix, le temps perdu immobilisé dans son véhicule représenterait un manque à gagner d’environ 3,5 milliards d'euros par an pour l’économie française.
Au niveau européen, Greencove a estimé pour sa part que les embouteillages auraient un coût global de l’ordre de 120 milliards d’euros pour l’économie, soit environ 600 euros par foyer européen ! Une autre étude réalisée par le cabinet KPMG en 2012 montre que les erreurs humaines sont responsables de plus de 90 % des accidents de la circulation. Selon cette étude, si le parc automobile était entièrement automatisé, plus de 30 000 vies pourraient être sauvées chaque année aux États-Unis et ce pays réaliserait des économies de plus de 300 milliards de dollars par an (218 milliards d’euros), selon les estimations de l'American Automobile Association (AAA).
Il est vrai que les Américains ont passé en 2012 4,8 milliards d'heures dans les bouchons, ce qui représente un coût annuel de 73 milliards d’euros en termes de retard et de carburant. KPMG rappelle également que, pendant les pics de trafic, 88 % du parc automobile américain restent inutilisés !
C’est dans ce contexte que vient de se tenir, dans le cadre du Salon de l’automobile de Genève, un colloque très intéressant intitulé « La voiture branchée de demain ». À l’occasion de cette rencontre, tous les grands constructeurs automobiles ont semblé d’accord sur le fait que l’évolution technologique allait permettre, d’ici une dizaine d’années, la transition de la voiture assistée à la voiture autonome.
Grâce aux pas de géant accomplis en quelques années par l’informatique et l’électronique, la plupart des modèles haut de gamme récents possèdent de nombreux systèmes d’assistance à la conduite qui vont bien au-delà du simple freinage assisté ou des dispositifs antipatinage. L’apparition des radars de bord, couplés au télémètre laser et au traitement informatique permet à présent à certains véhicules d’adapter automatiquement la vitesse en fonction du trafic et de prendre la main sur le conducteur, en freinant automatiquement en cas d’obstacle imprévu et de situation urgente.
À l’occasion du Salon de l’automobile de Genève, d’autres innovations remarquables ont été dévoilées et devraient rapidement se généraliser à l’ensemble des véhicules. Plusieurs grands constructeurs, dont Ford, Audi et Honda, ont notamment présenté des voitures semblables à la voiture dont dispose James Bond dans ses derniers films. Ces véhicules sont en effet capables d’aller se garer tous seuls puis, dans certaines conditions, de venir vous récupérer à l’entrée du parking !
Après une première rupture technologique qui a vu l’arrivée des voitures assistées, nous sommes donc en train de vivre une deuxième révolution technique marquée par l’avènement des véhicules autonomes, dernière étape avant la voiture entièrement automatique.
La conduite automatique aura des conséquences majeures non seulement sur le secteur des transports mais plus largement sur l’ensemble de l’économie et de l’organisation sociale. En premier lieu, la généralisation de ce type de véhicule devrait permettre une réduction drastique du nombre de personnes tuées ou blessées dans les accidents de la circulation. On mesure mieux l’immense enjeu humain que représente cette question quand on sait que, chaque année, les accidents de la route provoquent au niveau mondial 1,3 million de morts et 25 millions de blessés, soit l’équivalent d’un conflit armé de forte intensité.
Dans un rapport publié en 2004, l’OMS a estimé le seul coût économique direct des accidents de la circulation à 518 milliards de dollars par an, soit 317 milliards d’euros, ce qui représente près de 1 % du produit mondial brut.
En second lieu, l’avènement des véhicules automatiques devrait également permettre des économies considérables de carburant pour plusieurs raisons : d’abord parce que ce type de voiture beaucoup plus sûr sera construit en matériaux plus légers. En outre, l’automatisation des véhicules rendra l’offre de transport bien plus performante, non seulement en calculant de manière optimisée les trajets les plus économes mais également en permettant la généralisation du covoiturage intelligent.
Autre conséquence majeure qui découle de la précédente : il sera possible d’utiliser les infrastructures autoroutières et routières existantes de manière bien plus efficace qu’aujourd’hui et de limiter ainsi l’extension du réseau routier dont l’impact écologique et social devient parfois insupportable, notamment en milieu urbain. Le cabinet KPMG estime d’ailleurs que le développement de la circulation en « train » de véhicules pourrait augmenter la capacité des voies rapides de 500 %...
Il est vrai que cette voiture du futur sera capable de calculer votre itinéraire et d’adapter sa conduite de manière personnalisée, en intégrant vos besoins et préférences. Le géant japonais Mitsubishi Electric travaille sur ce type de système et a récemment présenté son projet d’interface Homme-machine intelligente Ultra-simple HMI. Ce dispositif intelligent permet une utilisation intuitive et interactive de l’ensemble des fonctions du véhicule et évite au conducteur de se noyer sous le flot de voyants, alertes et informations en tout genre que lui délivre en permanence son ordinateur de bord.
Utilisant toutes les ressources de l’intelligence artificielle, Ultra-simple HMI est un système prédictif qui combine les données relatives à vos habitudes de conduite et les informations concernant les conditions de circulation, de manière à optimiser l’utilisation des quatre grandes fonctions de base prédéfinies que sont la navigation assistée, le téléphone, la climatisation et l’équipement multimédia.
Ce système intelligent permet au conducteur de prendre en main son véhicule en moins de 15 secondes en manipulant seulement deux boutons. À titre de comparaison, Mitsubishi Electric précise que, sans son interface, une voiture d’une complexité équivalente requiert une quinzaine d’opérations et environ une minute et demie pour être opérationnelle.
Concrètement, les informations nécessaires à la bonne conduite du véhicule sont proposées via un affichage tête haute sur le pare-brise. Il ne reste alors au conducteur qu’à sélectionner les différentes options proposées par l’ordinateur de bord de seulement deux boutons situés sur le volant.
Bien entendu, ce système qui devrait être opérationnel en 2018, utilise pleinement toutes les ressources de la reconnaissance vocale par l’intermédiaire d’un module baptisé « Touch & Voice » qui permet d’accéder à l’ensemble des commandes des fonctions de la voiture en quelques secondes.
Reste que le passage du véhicule autonome à la voiture entièrement automatique constitue un véritable bouleversement, non seulement sur le plan économique et technique mais également dans les domaines sociaux, culturels et juridiques. On sait par exemple qu’il existe depuis plusieurs années un programme de recherche soutenue par les polices des différents états de l’Union européenne et visant à permettre l’implantation, dans tous les véhicules autonomes ou automatiques qui circuleront sur notre continent d’ici quelques années, d'une puce permettant non seulement la localisation et la traçabilité du véhicule mais également son contrôle à distance.
L’idée de base de ce projet est assez simple et consiste, en utilisant toutes les ressources de la technologie, à pouvoir localiser n’importe quel véhicule mais également à pouvoir en prendre le contrôle à distance si nécessaire. S’inscrivant dans le cadre du programme "Enlets" (European Network of Law Enforcement Technology Services), récemment présenté, un tel système permettrait, à l’horizon 2020, de repérer et d’immobiliser à distance et en toute sécurité une voiture volée ou ayant un comportement dangereux pour les autres usagers.
Mais ce dispositif ne va pas sans poser de nombreux problèmes en matière de respect des libertés publiques et de la vie privée. En effet, la généralisation dans les véhicules de ce « mouchard électronique » signerait la fin de l’anonymat en matière de déplacement et viendrait en outre alimenter les données personnelles à finalité commerciale en fournissant de précieuses informations sur les habitudes et les goûts du conducteur…
Ces véhicules automatiques et télécommandables à distance poseront également de redoutables problèmes en matière de responsabilité civile et pénale. En cas d’accident matériel ou corporel, il faudrait en effet repenser entièrement la question de la responsabilité du conducteur et déterminer la part de responsabilité du véhicule et du constructeur, ce qui promet des débats législatifs et juridiques animés, compte tenu des enjeux économiques et financiers considérables en cas de sinistre.
Mais au-delà de toutes ces interrogations et questions, la principale révolution qu’entraînera la généralisation de la conduite automatique sera sans doute davantage sociale que technologique ou économique. Ce type de véhicule va en effet abolir les frontières entre transports individuels et transports collectifs mais également recomposer complètement l’offre publique et privée en matière de déplacements.
À partir du moment où il sera possible de produire à un coût compétitif des voitures entièrement automatiques d’un niveau suffisant de fiabilité, on peut en effet se demander si la propriété exclusive de ce type de véhicule aura encore un sens puisqu’il deviendra possible de dissocier complètement l’utilisation de ce moyen de transport modulable et intelligent et sa possession.
On peut donc imaginer qu’une multitude de modèles économiques et sociaux nouveaux apparaîtront et accompagneront le développement et l’utilisation de ces voitures du futur qui pourront enfin réaliser la quadrature du cercle et transporter de manière économique, écologique et personnalisée, l’ensemble de la population en combinant au niveau micro-économique l'offre privée et publique de déplacement.
Reste cependant une inconnue de taille : depuis son apparition il y a plus d’un siècle, l’automobile a toujours été à la fois le symbole de la liberté individuelle et l’expression d’un certain niveau social et économique.
En dépit de ces extraordinaires progrès technologiques qui rendent à présent la voiture automatique non seulement possible mais inévitable, il n’est pas certain que nous soyons prêts à renoncer si facilement à cette dimension symbolique et imaginaire très forte que nous projetons dans nos véhicules. Il faudra donc que cette technologie toute-puissante et omniprésente puisse continuer à nous faire rêver et sache s’adapter et s’humaniser, de façon à être acceptée par les utilisateurs et à être, in fine, perçue comme un progrès ouvrant de nouveaux horizons dans notre insatiable soif de déplacement et de liberté.
Si cet édito vous a intéressé, je vous invite à relire (Transports urbains du futur : vers la fin des grandes infrastructures) ce que j’écrivais déjà sur ce même sujet de la voiture automatique, le 18 Septembre 1999 dans RT Flash. Certes, je me suis trompé de 5 ans (l’échéance du véhicule automatique arrivera à terme en 2025 et non pas dès 2020 comme je le prévoyais en 1999) mais tout ce que j’écrivais il y a bientôt 15 ans va bien se réaliser. Cette confirmation d’une démarche sur le long terme apporte bien la preuve que la Prospective s’appuyant de plus en plus en amont sur les travaux de la Recherche sur l’ensemble de notre Planète, grâce aux nouveaux réseaux qui se sont développés dans ces dernières décennies, devient de plus en plus fiable.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
L'Université Ramon Llull de Catalogne a présenté début février, en collaboration avec l'entreprise PAL robotics et la Obra Social La Caixa, le troisième robot humanoïde de la série Reem, développée par PAL robotics. Ce robot d'aide à la personne présenté à CosmoCaixa, le musée de la Science de l'œuvre sociale de La Caixa, est le plus robuste de sa catégorie et peut notamment soulever et transporter jusqu'à 10 kilos.
La famille de robots REEM ne cesse de s'agrandir et regroupe à présent cinq plates-formes différentes conçues avec des fonctionnalités avancées de service à la personne. Le dernier né de la série, Reem C, un robot humanoïde d'1m65 et 80 kg, est capable de reconnaître certaines personnes et de manipuler de manière simple des objets. Il peut également répondre à certaines questions de ses interlocuteurs dans plus de 30 langues ou encore serrer la main à une personne qui se trouve en face de lui. Sa batterie innovante lui confère environ trois heures d'autonomie.
Ce robot utilise le langage de programmation ROS (Robot Operating System), qui est en train de révolutionner la robotique en simplifiant considérablement la programmation des robots. Jordi Albo, expert en robotique à l'Université de Ramon Llull, est persuadé que ce type de robot est destiné à se démocratiser et sera demain indispensable pour prendre en charge la population européenne vieillissante.
De son côté, PAL robotics travaille déjà à une nouvelle version du robot, D-Reem, qui devrait prendre la forme d'un androïde bipède à haut niveau d'interactivité et de sociabilité, destiné à entrer dans les foyers.
Article rédigé par Georges Simmonds pour RT Flash
El Mundo
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut de technologie de Géorgie (USA), dirigés par Zhong Lin Wang (membre de l'Académie des Science de Pékin et titulaire du prestigieux prix chinois pour la collaboration scientifique), ont mis au point un nouveau type de générateur qui repose sur la "triboélectricité", l'électricité produite par le frottement de deux matériaux, qui permet par exemple à un ballon de se charger électriquement pour adhérer à un mur après avoir été frotté contre un pull en laine.
Pour générer cette charge électrostatique et la collecter, ces scientifiques ont utilisé un assemblage constitué de plusieurs petits disques composés de matériaux différents dont l'un, doté de rayons semblables à ceux d'une roue de vélo, entre en rotation par rapport aux autres pour produire un courant électrique qui est recueilli par des électrodes.
Dans leur laboratoire, les ingénieurs ont réussi à produire suffisamment de courant à partir de l'eau coulant d'un robinet, du souffle d'un ventilateur ou du mouvement de va-et-vient de la main, pour alimenter des ampoules électriques ou encore recharger un mobile.
Comme le souligne Zhong Lin Wang, "Notre système fonctionne pour les mouvements, réguliers ou pas, comme les mouvements du corps humain. A partir du moment où il y a une action mécanique, il peut générer de l'énergie. Notre générateur a une large gamme d'applications : détecteurs embarqués sur des véhicules, téléphones mobiles, petits équipements électroniques mais également production d'énergie à l'échelle industrielle".
En seulement deux ans, les chercheurs ont réussi à augmenter la densité de puissance de sortie de leur générateur triboélectrique (TEG) d'un facteur 100 000, atteignant une puissance de 400 kilowatts par mètre cube avec une efficacité de plus de 50 pour cent ! Ce TEG est à présent en mesure d'alimenter une batterie au lithium-ion.
Par rapport au généateur électromagnétique classique (EMG) qui produit un courant de sortie élevé, mais de basse tension, le TEG se caractérise par un courant de sortie faible, mais une tension de sortie élevée.
"Nous sommes en train de travailler pour voir comment générer de l'énergie à partir du mouvement des vagues de l'océan. En raison de son faible coût et de sa simplicité, notre technologie peut être utilisée à grande échelle, de telle manière que l'énergie qui a été gaspillée durant des siècles soit désormais mise à profit", déclare M. Wang.
Article rédigé par Georges Simmonds pour RT Flash
NTW
|
|
|
|
|
|
|
|
La plus grande centrale solaire thermique à concentration du monde vient d'être mise en service à Ivanpah en Californie. Fruit d'un partenariat original entre NRG, Google et BrightSource Energy, cette installation hors norme, qui va produire 30 % de toute l'électricité solaire thermique des Etats-Unis, exploite le niveau d'ensoleillement exceptionnel du désert de Mojave dans l’ouest des Etats-Unis.
Disposant d'une puissance de 392 Mégawatts, cette centrale géante, d'une superficie de 13 km², pourra produire assez d'électricité pour approvisionner environ 140 000 foyers américains et devrait éviter ainsi l'émission de 400 000 tonnes de CO2 par an (l'équivalent des émissions annuelles d'environ 72 000 voitures).
Le projet est le premier à utiliser la technologie solaire innovatrice de BrightSource qui permet de produire de l'électricité à l'aide de 173 500 héliostats pilotés par ordinateur pour suivre la trajectoire du soleil. Ceux-ci captent la lumière du soleil et la renvoient sous la forme de flux concentré vers une tour de 140 mètres de haut. C’est à cet endroit que de l’eau est transformée en vapeur pour alimenter des turbines entraînant des alternateurs.
D'un coût total de 2,2 milliards de dollars, cette centrale a bénéficié de 1,6 milliard d'argent public. De son côté, Google a contribué à hauteur de 168 millions de dollars à sa construction.
Article rédigé par Georges Simmonds pour RT Flash
NRG
|
|
|
|
|
|
|
|
Des chercheurs du MIT ont mis au point une nouvelle technologie, permettant de maximiser le rendement des cellules solaires grâce au couplage thermique et photovoltaïque. Cette technologie dite "thermophotovoltaïque" pourrait permettre d'atteindre un rendement de conversion de 80 %.
Cette technique permet de combiner les avantages du solaire photovoltaïque et du solaire thermique. Par rapport à une cellule classique au silicium, le dispositif mis au point par le MIT intègre un convertisseur intermédiaire qui capte le rayonnement solaire, le convertit en chaleur et réémet un rayonnement vers la cellule photovoltaïque. Le convertisseur se compose d'un dispositif "absorbeur-émetteur" à deux couches, placé entre la lumière incidente et la cellule photovoltaïque.
La première couche est composée de nanotubes de carbone et peut capter la quasi-totalité du rayonnement solaire sous forme de chaleur. La seconde couche, qui recouvre la première, est faite de cristaux nanophotoniques ; elle peut atteindre l'incandescence par conduction et émettre un rayonnement dont l'intensité peut être modulable au-delà de la bande interdite du silicium. Ce nouveau type de convertisseur devrait permettre d'utiliser pleinement la totalité du spectre solaire et notamment les longueurs d'onde qui n'interagissent pas normalement avec le silicium.
Pour l'instant, le rendement obtenu en laboratoire est de l'ordre de 3 % mais son efficacité finale pourrait dépasser 80 %. Dans un premier temps, l'équipe du MIT pense pouvoir atteindre assez rapidement une efficacité de 20 %, un niveau suffisant pour envisager un développement commercial. La découverte a été saluée comme une avancée technologique majeure par la communauté scientifique internationale.
Article rédigé par Georges Simmonds pour RT Flash
Nature
MIT
|
|
|
|
|
|
|
|
Le graphène pourrait un jour remplacer le silicium dans les semi-conducteurs. Mais ce composant constitué d’atomes de carbone reste difficile à produire.
Les laboratoires d'IBM ont réussi à fabriquer un récepteur radio avec des transistors en graphène, dont les performances sont sans précédent. Pour parvenir à ce résultat, les chercheurs ont mis au point une technique de fabrication qui n’endommage pas le graphène tout en étant compatible avec le processus CMOS (Complementary Metal Oxide Semiconductor), qui est l’un des plus répandus pour la production de composants électroniques.
Cette percée ouvre la voie à des puces de communication sans fil plus performantes et moins coûteuses, qui pourraient équiper les appareils mobiles (smartphone, tablettes, etc.) et les capteurs intelligents de demain. "L’intégration du graphène avec le silicium va permettre d'augmenter sensiblement le rapport coût-performances", souligne Shu-jen Han, qui dirige ces recherches chez IBM.
Ce nouveau composant serait 10 000 fois plus performant que le premier prototype réalisé. Il a été testé avec succès en recevant les trois lettres « IBM » transmises sur une bande de fréquence de 4,3 GHz à une vitesse de 20 mégabits par seconde. Cette puce qui nécessite moins de 20 mW de puissance pour fonctionner a été produite sur wafer de 200 mm, sur une surface de 0,6 mm2.
"Grâce à ce nouveau processus de fabrication, nous allons pouvoir intégrer directement les circuits analogiques au graphène par-dessus les circuits numériques, ce qui permettra de dégager beaucoup de place sur la puce", précise Shu-jen Han. Celui-ci ajoute toutefois que les premières puces commerciales au graphène ne devraient pas voir le jour avant 2020.
Article rédigé par Georges Simmonds pour RT Flash
IBM
|
|
|
|
|
|
|
|
Des chercheurs américains du Virginia Tech, dirigés par YH Percival Zhang, sont parvenus à synthétiser 13 enzymes qui, combinées à une solution de maltodextrine (un mélange de sucres), produisent du courant, à raison de 24 électrons pour chaque unité de glucose disponible. Ce nouveau procédé très original permettrait de stocker jusqu'à 10 fois plus d'énergie qu'une pile au lithium. Selon ses créateurs, un tel dispositif pourrait être utilisable dans les appareils alimentés par une batterie d'ici trois ans.
Ce prototype de batterie au sucre aurait délivré une puissance de 0,8 mW / cm, une densité de courant de 6 mA / cm et une densité de stockage d'énergie de 596 Ah / kg, soit environ 10 fois la densité énergétique des batteries lithium-ion disponibles sur le marché.
En théorie, ce type de batterie pourrait être rechargée à l'aide d'une simple solution sucrée contenant 15 % de maltodextrine. Une telle batterie serait donc à la fois très performante, écologique et peu coûteuse à fabriquer. Ces biobatteries pourraient trouver de nombreuses applications pour alimenter des stimulateurs cardiaques, des capteurs sous-cutanés ou des dispositifs électroniques implantables.
Article rédigé par Georges Simmonds pour RT Flash
Extreme Tech
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon une communication présentée récemment à Chicago à l'occasion de la conférence annuelle de l'Association américaine pour l'avancement de la science (AAAS), Jennifer Francis, professeur de climatologie à l'Université Rutgers dans le New Jersey, a présenté un modèle montrant que le réchauffement de l'Arctique pourrait affecter durablement le "jet-stream" polaire, qui est déterminant pour le climat en Amérique du Nord et en Europe.
Cette étude indique que les vents du jet-stream, qui soufflent d'Ouest en Est à haute altitude, s'affaiblissent et que ce courant tend de ce fait à s'élargir et à dévier plus facilement de sa trajectoire. Ce phénomène expliquerait notamment pourquoi les États-Unis connaissent un hiver particulièrement froid et enneigé dans le Middle West alors que l'Alaska connaît au contraire un hiver anormalement clément cette année.
Ce processus pourrait être la conséquence du réchauffement accru dans l'Arctique, où les températures ont augmenté deux fois plus vite que dans le reste du globe. Selon ces chercheurs, la calotte glaciaire agirait comme un couvercle séparant l'océan de l'atmosphère et sa fonte accélérée provoquerait un transfert massif de chaleur dans l'atmosphère, ce qui expliquerait certains dérèglements climatiques actuels.
A terme, ce phénomène pourrait affecter sensiblement l'agriculture et l'élevage au niveau mondial en bouleversant la fréquence et la répartition des sécheresses et précipitations aux latitudes moyennes.
Article rédigé par Georges Simmonds pour RT Flash
Daily Mail
|
|
|
|
|
|
|
|
Selon une étude menée par des chercheurs français et publiée dans la revue Nature Communications, le développement des parcs et fermes éoliennes en Europe aurait un impact très faible sur le climat et cela devrait rester vrai jusqu'en 2020.
En avril 2012, une étude menée au Texas et publiée dans Nature Climate Change estimait que les grandes installations éoliennes pourraient avoir un effet de réchauffement sur le climat local. Cette étude avait même estimé à 0,72°C par décennie, l'augmentation possible de température particulièrement la nuit, dans les zones situées au-dessus des champs d'éoliennes.
Comme le souligne Robert Vautard, le chercheur au Laboratoire des sciences du climat et de l'environnement qui a dirigé ce travail, « De précédentes études avait déjà montré l'impact local des éoliennes sur le climat mais il restait à évaluer l'effet, au niveau continental, du développement massif de l'énergie éolienne ».
Cette étude a travaillé sur une hypothèse de développement de l'éolien de 200 gigawatts (GW) de puissance installée en 2020 dans l'Union européenne, ce qui correspond à un quasi doublement par rapport aux 110 GW installés aujourd'hui mais qui est conforme aux objectifs définis par le "paquet énergie-climat", adopté par l'Union européenne en 2009, prévoyant d'atteindre les 20 % d'énergies renouvelables dans le mix énergétique.
Dans leurs simulations, les scientifiques ont également tenu compte de la répartition géographique des parcs éoliens, de l'évolution de la taille et de la forme des éoliennes ainsi que du fort développement prévu des fermes marines d'éoliennes.
Résultat : les écarts de température provoquée par ce développement massif de l'éolien terrestre et marin ne devraient pas dépasser les 0,3°C. Les scientifiques prévoient un très léger réchauffement dans le nord de l'Europe et un léger refroidissement dans le Sud-Est, des phénomènes qui peuvent s'expliquer par une légère modification du régime des vents allant de l'ouest vers le nord. L'étude prévoit également une petite diminution moyenne des précipitations saisonnières au centre de l'Europe, de l'ordre de 5 % au maximum (soit 0,15 mm par jour). Mais ces écarts de températures et de précipitations devraient rester nettement plus faibles que ceux observés d'un univers à l'autre du simple fait de la variabilité naturelle du climat.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Notre système immunitaire est composé de différents agents qui recherchent en permanence les "envahisseurs" étrangers, qu'il s'agisse de virus, de microbes ou encore de cellules cancéreuses. Mais pour des raisons qui ne sont pas totalement élucidées, il arrive que le système immunitaire se retourne brusquement contre l'organisme qu'il doit protéger, ce qui se traduit par une maladie auto-immune comme le lupus ou la sclérose en plaques.
Ces maladies sont souvent provoquées par un dysfonctionnement des lymphocytes T régulateurs, des cellules immunitaires qui régulent l’action de certains lymphocytes T tueurs et maintiennent en place un subtil équilibre entre protection et auto-immunité.
Chez les malades atteints par la sclérose en plaques, certains lymphocytes T détruisent la myéline des neurones, une gaine lipidique qui les protège et permet la bonne circulation des informations nerveuses. Ce processus finit par entraîner une altération des messages nerveux et déclenche différents symptômes tels qu’une faiblesse musculaire, de la fatigue et des pertes de mémoire.
Des chercheurs de l'Université de Copenhague, dirigés par Yawei Liu, ont identifié une nouvelle catégorie de lymphocytes T régulateurs capables de combattre les globules blancs hyperactifs destructeurs de myéline. Chez la souris, leur stimulation permet de diminuer l’inflammation cérébrale qui a lieu lors de la sclérose en plaques.
« Nous étions convaincus que certaines cellules immunitaires pouvaient bloquer la destruction de la myéline qui apparaît lors de la sclérose en plaques, mais nous ignorions lesquelles » explique Yawei Liu.
Pour identifier ces cellules, les chercheurs ont comparé les populations de lymphocytes présentes dans le système nerveux central de souris atteintes d’une inflammation cérébrale. Chez les rongeurs possédant une myéline saine, ils ont identifié une nouvelle population de lymphocytes T régulateurs et ont également découvert que ce type de lymphocyte exprimait FoxA1, un gène fortement impliqué dans le processus moléculaire qui conduit à la destruction de la myéline.
Ces travaux ont également permis de montrer, en analysant des échantillons sanguins de malades avant et après un traitement de deux ans avec des interférons bêta, que ce traitement augmentait le nombre de lymphocytes T régulateurs exprimant FoxA1, ce qui expliquerait l'effet thérapeutique de ce médicament.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
La maladie de Creutzfeldt-Jakob (MCJ) est la forme la plus fréquente des maladies à prions chez l'homme. Cette pathologie neurodégénérative provoque un décès rapide des malades et il n'existe jusqu'à présent aucun traitement efficace pour la combattre.
Mais une étude réalisée conjointement par des chercheurs français et italiens et notamment Jean-Philippe Brandel et Stéphane Haïk, chercheurs de l'équipe « Maladies à Prions - Maladie d'Alzheimer » de l'Institut du cerveau et de la moelle épinière (CRICM, Inserm/UPMC/CNRS) et coordonnée par le Professeur Fabrizio Tagliavini (Institut Neurologique Carlo Besta, Milan), a pu montrer que la doxycycline avait une action thérapeutique contre cette maladie.
Plusieurs essais cliniques en double contre placebo, réalisés en Italie et en Allemagne, ont notamment montré qu'un traitement quotidien avec 100 mg de doxycycline augmentait la survie des patients traités.
Article rédigé par Georges Simmonds pour RT Flash
NCBI
|
|
|
|
|
|
|
|
On savait déjà que la consommation régulière d'aspirine pendant une longue période pouvait diminuer sensiblement, chez certains patients, le risque de certains cancers, comme le cancer du côlon.
Mais selon une étude récente réalisée par des chercheurs américains de l'Institut national du cancer de Bethesda, les femmes qui prennent régulièrement de faibles doses d'aspirine pourraient réduire leur risque de cancer de l'ovaire de 20 %.
Pour parvenir à ces conclusions, les chercheurs ont passé au crible les données médicales de 12 grandes études sur le cancer de l'ovaire. L'ensemble de ces informations concernait au total 7 776 femmes ayant eu un cancer de l'ovaire et 11 843 femmes indemnes de cette maladie.
Ces scientifiques ont observé que les femmes ayant consommé une faible dose quotidienne (moins de 100 mg) d'aspirine diminuaient de 20 % le risque de développer un cancer de l'ovaire par rapport à celles qui avaient consommé de l'aspirine moins d'une fois par semaine.
Britton Trabert, co-auteur de l'étude reste cependant prudent et souligne que "L'aspirine reste un médicament qui se prescrit sous surveillance médicale et peut entraîner des effets secondaires sérieux chez certaines personnes et notamment des saignements, notamment au niveau des muqueuses digestives".
L'étude souligne qu'il va falloir à présent mieux évaluer la balance entre les bénéfices que pourrait avoir une prévention par l'aspirine pour certaines patientes et les risques qu'entraînerait à long terme une telle prévention.
Article rédigé par Georges Simmonds pour RT Flash
UPI
NCI
|
|
|
|
|
|
|
|
On savait déjà que, chez les femmes, le tabac augmentait sensiblement le risque global de cancer du sein. Mais des chercheurs américains du Centre de recherche sur le cancer Fred Hutchinson à Seattle, dirigés par Cristopher Li, ont montré que certains types particuliers de cancer du sein sont plus sensibles que d'autres aux nombreuses substances cancérogènes contenues dans le tabac.
Pour parvenir à ces conclusions, ces scientifiques ont étudié le comportement de 778 patientes âgées de 20 à 44 ans et atteintes d’un cancer du sein à récepteurs d’œstrogènes positifs, 182 patientes atteintes d’un cancer du sein métastatique triple négatif et 938 patientes en bonne santé.
Cette étude montre que le risque le plus élevé concerne les femmes jeunes qui fument souvent ou depuis peu. Leur risque de cancer du sein à récepteurs d’œstrogènes positifs est augmenté de 60 %. Ce cancer du sein à récepteurs d’œstrogènes positifs est le plus courant et se caractérise par la présence de récepteurs d’œstrogènes dans les cellules cancéreuses.
En revanche, le tabagisme ne semble pas impliqué dans une augmentation du risque de cancer du sein métastatique "triple négatif", une forme de cancer peu fréquent mais très agressif qui se caractérise par l’absence de ces récepteurs d’œstrogènes, de progestérone ou de la protéine HER2.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
La société japonaise Quantum Biosystems, basée à Osaka et fondée en 2013 par Masateru Taniguchi, a mis au point une technique révolutionnaire qui permet le séquençage ultrarapide, précis et à faible coût de l'ADN et l'ARN.
La technologie développée par Quantum repose sur une paire de nanoélectrodes qui sont séparées par un interstice sous-nanométrique à travers lequel est appliquée une tension de polarisation. Il suffit alors de détecter les fluctuations du courant produit par l'effet quantique "tunnel" pour séquencer l'ADN ou l'ARN.
La plate-forme de séquençage de Quantum permet le séquençage direct d'un fragment unique d'ADN ou d'ARN sur des dispositifs au silicium pouvant être réalisés sur les mêmes chaînes de production que les circuits intégrés grand public. Cette technique n'utilise ni protéines ni autres réactifs, ce qui réduit très sensiblement le coût du séquençage.
Article rédigé par Georges Simmonds pour RT Flash
Financial Post
Genome Web
|
|
|
|
|
|
|
|
Certaines études avaient déjà montré que la consommation de thé vert semblait avoir un effet protecteur contre certains cancers, notamment les cancers digestifs. Cette fois, une étude allemande réalisée par Jan Hintzpeter, Claudia Stapelfeld, Christine Loerz de l’University Medical Center Schleswig-Holstein (Allemagne) a montré pour la première fois que la consommation régulière de thé vert et de ses composés polyphénoliques entraînait une réduction sensible et durable de la production de cortisol, une hormone sécrétée par les glandes surrénales qui joue un rôle essentiel dans l’équilibre du glucose sanguin.
Ces chercheurs ont montré, chez la souris, les effets bienfaisants des catéchines, des composés phénoliques contenus dans le thé vert. L’épigallocatéchine-3-gallate (ECGC), en particulier, joue un rôle déterminant en inhibant une enzyme impliquée dans la production de cortisol, la 11β-hydroxystéroïde deshydrogénase de type 1 (11β-HSD1).
Or le cortisol est essentiel au mécanisme de régulation de nombreux processus physiologiques comme la tension artérielle, la fonction cardiovasculaire, le métabolisme des glucides et l’immunité. Une sécrétion prolongée de cortisol peut donc entraîner différents troubles tels que l’hypertension, la diminution des défenses immunitaires, le diabète de type 2 et l'obésité.
Article rédigé par Georges Simmonds pour RT Flash
PLOS
NCBI
AJCN
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|