|
|
|
|
|
NUMERO 969 |
|
|
|
|
|
|
|
Edition du 05 Octobre 2018
|
|
|
|
|
Edito
Mondial 2018 : La voiture électrique va enfin décoller...
Le parc automobile mondial a doublé depuis 20 ans et il était estimé à environ 1,4 milliard de véhicules en 2017. Ce parc, qui est déjà responsable d’environ 18 % des émissions mondiales de CO2, soit environ 8 gigatonnes de CO2 par an, devrait dépasser la barre de deux milliards de véhicules en 2040, pour atteindre les trois milliards d’unités en 2050.
Les voitures électriques, pour leur part, même si leur nombre a été multiplié par dix en 10 ans, ne sont encore que cinq millions à rouler dans le monde, soit à peine 0,5 % du parc automobile mondial. En Europe, les ventes de voitures électriques ont certes progressé de 34 % l’an dernier, mais représentent 0,8 % à peine des immatriculations de voitures neuves. En France, le pourcentage est à peine supérieur, avec 1,2 % des immatriculations en 2017…
Mais les voitures électriques restent handicapés par deux freins majeurs : d’abord l’autonomie réelle, qui ne dépasse pas les 200 à 300 km selon les méthodes de conduite et ensuite le temps de rechargement des batteries qui varie de 8 heures (temps de recharge à domicile sur une prise standard) à une demi-heure pour une charge à 80 %, en utilisant certaines bornes de nouvelle génération très puissantes.
Quant au nombre de bornes de recharge (hors installations à domicile ou en entreprises), il a dépassé en France les 22 000 en début d’année, soit un pour six véhicules électriques. Mais la grande majorité de ces bornes sont situées en zones urbaines et seules 700 d’entre elles sont des bornes puissantes à recharge très rapide. Autant dire que pour explorer les campagnes françaises pendant les vacances, mieux vaut avoir l’œil rivé sur l’écran affichant l’autonomie et prévoir de faire coïncider la recharge des batteries avec un long déjeuner ou une étape à l’hôtel…
Les voitures électriques restent également sensiblement plus chères à l’achat que les véhicules thermiques de classe équivalente et la location de la batterie, qui s’ajoute au prix élevé de ces voitures propres, constitue souvent un facteur dissuasif supplémentaire pour l’acheteur potentiel. Pourtant, une étude récente comparant la Renault Zoe life et la Clio 4 Diesel a montré que, contrairement à certaines idées reçues, le coût annuel total d’utilisation de la Zoe life électrique était inférieur de 160 euros à celui de son homologue à moteur diesel (5 114 contre 5 174 euros par an, sur la base d’un kilométrage annuel moyen de 15 400 km).
Mais des ruptures technologiques en cours changeront radicalement cette situation au cours de la prochaine décennie. L'AIE parie ainsi sur environ 200 millions de véhicules électriques d'ici 2030, soit 10 % du parc automobile mondial. EnerFuture prévoit pour sa part que la part des véhicules électriques dans le parc automobile mondial pourrait atteindre jusqu'à 44 % en 2040 et plus de 50 % en 2050.
Fait révélateur, mêmes les grands groupes pétroliers, peu suspects de sympathie envers la voiture électrique, ont récemment fortement revus à la hausse leurs prévisions d’accroissement du parc électrique mondial. Le géant pétrolier américain Exxon Mobil a ainsi réévalué son estimation, de 65 millions à 100 millions de modèles électriques commercialisés d’ici 2040. BP table également sur au moins 100 millions de ventes annuelles de véhicules « zéro émission » dès 2035. Enfin, une étude publiée il y a quelques jours par IHS Markit sur l'impact de la mobilité durable, intitulée « Mobilité durable : le temps de la rupture », prévoit qu’en 2030, 21 millions de voitures vendues dans le monde seront électriques, soit une six (Voir MAZARS).
En France, le nombre total de voitures électriques pourrait passer de 100 000 aujourd’hui à six millions en 2030 et à 15, 6 millions en 2040 (selon le scenario le plus optimiste de RTE). A cet horizon, c’est donc près d’une voiture sur deux en France qui serait électrique. Toujours selon RTE, l’ensemble de ce parc électrique entraînerait un surcroît de consommation de l’ordre de 34 TWh, soit 7 % de la consommation finale d’électricité, ce qui est tout à fait gérable et planifiable sur vingt ans.
L’étude réalisée il y a quelques semaines par la Commission de Régulation de l’Energie (CRE) table, quant à elle, sur 15 millions de véhicules électriques en 2035. Ce rapport confirme, comme celui de RTE, que, même dans l’hypothèse d’une forte montée en puissance du parc électrique, notre pays, contrairement à ce qu’on entend ici ou là, sera tout à fait à même de fournir la quantité d’électricité supplémentaire nécessaire à l’alimentation de ces millions de voitures électriques attendues d’ici 20 ans.
La CRE montre notamment que la baisse tendancielle de notre consommation électrique nationale devrait permettre de compenser en partie la demande d’énergie liée à l’augmentation du nombre de véhicules électriques. Mais surtout la CRE souligne que, connectés en permanence au réseau électrique intelligent (smart grid), ces véhicules électriques de prochaine génération ne seront pas seulement des consommateurs d’électricité mais également des producteurs d’énergie (l’électricité résiduelle contenue dans les batteries pourra être réinjectée la nuit dans le réseau) et des régulateurs qui seront très utiles pour absorber et lisser les pics de production électrique provenant de l'éolien et du solaire.
Mais quelles sont donc ces avancées technologiques majeures qui sont en train de changer la donne pour l’avenir de la voiture électrique ? Avant de les évoquer, il faut rappeler que les voitures électriques actuelles sont dotées, en grande majorité, de différents types de batteries au lithium. Ainsi les batteries lithium-ion, les plus utilisées, équipent les voitures, les motos, les scooters électriques ou encore les vélos à assistance électrique. Leur durée de vie peut aller jusqu’à une douzaine d’années, en fonction du nombre de recharges.
En dépit d’une densité énergétique qui a doublé en 25 ans (passant de 125 à 250 Wh/kg), un défaut rédhibitoire, propre à ce type de batterie, a fait beaucoup parler de lui : contrairement à sa « cousine », la batterie lithium-ion polymère, l'accumulateur lithium-ion s'avère potentiellement instable à cause de l'électrolyte et de la cathode. En cas de surcharge, ou lorsque la température est inférieure à -5°C, des dendrites (excroissances) apparaissent au niveau d'une des deux électrodes et peuvent provoquer un court-circuit en touchant la seconde électrode. Il s’en suit alors un échauffement rapide qui peut parfois aller jusqu’à provoquer une explosion, accompagnée de vapeurs toxiques.
C'est ce qui s’est passé en 2013, avec l’affaire des modèles S de Tesla, dont plusieurs exemplaires ont été victimes d’incendies probablement dus à un problème d’échauffement des batteries lithium-ion. Ce même problème semble s’être reproduit en 2014, quand l'agence américaine pour la sécurité des transports a admis que l'incendie de la batterie d'un Boeing 787 Dreamliner avait été provoqué très probablement par un court-circuit interne dans la cellule de la batterie lithium-ion. Enfin, on se rappelle que le smartphone « Galaxy Note7 » de Samsung a dû être retiré en catastrophe en 2016 du marché par l’industriel coréen et lui a coûté sans doute plus de 10 milliards de dollars. Pour limiter ces risques, les constructeurs utilisent un système de gestion de batterie (BMS), qui contrôle la charge de la batterie afin d'éviter les surtensions et sous-tensions à l'origine de l'emballement thermique.
Heureusement, plusieurs innovations et avancées technologiques majeures dans ce domaine des batteries vont changer radicalement la donne d’ici cinq ans dans ce paysage des transports. Il faut d’abord évoquer la percée réalisée par l’équipe de John Goodenough, professeur de l'Université du Texas et co-inventeur de la batterie lithium-ion, il y a 40 ans. Ce chercheur infatigable de 95 ans a développé, avec sa consœur Maria Helena Braga, un nouveau type de batterie lithium dotée d'un électrolyte solide et donc de cellules ininflammables.
Concrètement, l'électrolyte se compose d'une plaque de verre qui fait office de séparation entre l'anode et la cathode. L'anode peut être constituée de différents métaux (lithium, potassium ou sodium). En outre, cette batterie d'un nouveau genre permet de doubler la capacité de charge et de décharge, donc l'autonomie, tout en augmentant la durée de vie. Cette nouvelle batterie se recharge en quelques minutes et peut fonctionner entre -20°C et 100°C sans nécessiter de refroidissement. Elle devrait être sur le marché fin 2020 (Voir Clean Technica).
Mais les Japonais entendent bien conserver leur suprématie dans ce domaine des batteries et les géants Toyota, Nissan et Honda viennent de s’associer à Panasonic et au gouvernement japonais pour renforcer le laboratoire de recherche Libtec, qui travaille sur cette technologie et s’est fixé deux objectifs précis : une autonomie de 525 km en 2025 et de 800 km en 2030.
Une autre équipe japonaise, dirigée par le professeur Kanji Sugano de l'Institut de technologie de Tokyo et le professeur Yuki Kato de Toyota Motor Corp, a développé quant à elle un nouveau matériau, Li9.54 Si1.74 P1.44 S11.7 Cl0.3 (lithium, silicium, phosphore, soufre et chlore) qui présente une conductivité ionique comparable aux électrolytes organiques. Ce matériau fonctionne en outre par des températures pouvant aller de -30°C à 100°C et peut tenir 1 000 cycles de charge/décharge (Voir PRWeb).
Rappelons également qu’en 2008, Toshiba a mis sur le marché la SCiB, (Super Charge ion Battery), une batterie lithium-ion à recharge rapide, dont la capacité tient beaucoup mieux dans le temps. Pour sa nouvelle génération de batterie SCiB, présentée en 2017, le japonais a changé la composition des anodes et utilise à présent de l'oxyde de niobium titane, ce qui permet à la fois une recharge ultra-rapide, (une dizaine de minutes, même par grand froid) et un doublement de sa capacité. Toshiba veut commercialiser cette batterie dès 2019 (Voir Toshiba).
Samsung, grand rival de Toshiba dans ce domaine n’est pas en reste et a présenté fin 2017 un nouveau concept prometteur : la batterie modulaire. Grâce à cette batterie, Samsung affirme que l’autonomie des voitures pourra aller de 300 à 700 km (en fonction des besoins et du budget de l’utilisateur). Il suffira pour cela de choisir le nombre de ses modules (entre 12 et 20, selon les modèles) (voir Business Wire).
L'entreprise Fisker, du nom de son créateur Henrik Fisker, est spécialisée dans la fabrication de voitures électriques plutôt haut de gamme et se définit comme un concurrent de Tesla. La marque a annoncé, il y a quelques semaines, une percée dans la technologie de la batterie solide, grâce à une « électrode tridimensionnelle » capable d'offrir une capacité multipliée par 2,5 par rapport à une batterie classique lithium-ion. Quant à l'autonomie, elle atteindrait les 800 km, tandis que la recharge ne demanderait qu'une minute ! (Voir Electronic Design). Henrik Fisker souhaite lancer sa batterie révolutionnaire sur le marché dès 2020.
Dans cette compétition technologique féroce et hautement stratégique quand on sait que le marché mondial des batteries atteindra 80 milliards de dollars en 2020, la France fait bonne figure et en 2015, une équipe du CNRS a dévoilé son premier prototype de batterie utilisant des ions sodium dans un format industriel standard. Bien que cette nouvelle batterie ait, pour l’instant, une capacité énergétique deux fois inférieure à celle des batteries lithium-ion, sa durée de vie est trois plus longue et surtout, elle peut se recharger dix fois plus vite et coûte moins chère à fabriquer, car elle repose sur un élément, le sodium, qui est présent en quantité quasi-inépuisable sur Terre. Ce nouveau type de batterie pourrait être commercialisé par la jeune société Tiamat dès 2020.
Il reste que tous les chercheurs et tous les constructeurs semblent s'accorder pour dire que la batterie à l'état solide est la prochaine révolution industrielle de l'automobile électrique. Dernier argument en faveur de cette nouvelle batterie, un coût de fabrication moindre, qui permettrait de réduire le prix du véhicule électrique. Il existe déjà des batteries au lithium à l'état solide qui ne présentent aucun danger. Il s'agit des accumulateurs lithium-métal-polymère (LMP) dont la technologie est maîtrisée et utilisée par le groupe Bolloré dans ses voiturettes électriques, BlueCar ou Autolib. Ces batteries affichent d’étonnantes performances, absence d’effet de mémoire, une durée de vie de 10 ans, une autonomie de 200 km. Mais cette batteries LMP ont un gros défaut, elles ont besoin d'une température constante de 80°C pour être utilisées, faute de quoi elles se déchargent complètement en quelques jours. Les voitures utilisant ce type de batterie doivent donc être constamment en charge, ce qui constitue évidemment un sérieux handicap.
Mais avant même que cette rupture technologique des batteries solides hautes performances ne se retrouve sous le capot de nos voitures électriques en 2025, les constructeurs ne cessent d’améliorer les technologies de batteries existantes au lithium. C’est notamment le cas de Renault, qui croit dur comme fer à l’avenir de la voiture électrique et a présenté lors du Mondial qui vient de s'ouvrir à Paris, une ZOE entièrement repensée pour 2019, avec une autonomie promise de 600 km en cycle NEDC (mais plutôt de 400 km en conduite réelle), des coûts de production réduits de 30 % et une possibilité de recharge rapide pour 230 km d’autonomie en seulement 15 minutes.
Nous allons donc voir arriver sur le marché, d’ici seulement 5 ans, une nouvelle génération de voitures électriques qui va satisfaire au « carré magique » qu’attendent tous les automobilistes sceptiques pour franchir le pas et abandonner définitivement la voiture thermique : premier atout, grâce à des batteries moins chères à produire, le prix de ces véhicules devrait se rapprocher de celui des voitures à moteur. Deuxième atout, l’autonomie sera doublée en conduite réelle, dépassant les 400 km et allant jusqu’à 600 km sur les modèles haut de gamme. Troisième atout, il sera enfin possible, grâce à ces nouvelles batteries et la généralisation de chargeurs à haute capacité, de récupérer en moins de 30 minutes 80 % d’autonomie, de quoi éloigner définitivement le spectre de la panne sèche en rase campagne. Enfin, 4ème et dernier atout, la sécurité de ces véhicules sera bien plus grande, avec des risques d’incendie très faibles, une utilisation optimale par tout temps et une longévité de plus de 10 ans.
En s’appuyant sur ces ruptures technologiques en cours, il faut bien entendu tout mettre en œuvre pour accélérer l’électrification du parc automobile mondial et faire en sorte que le point de basculement, qui verra plus de la moitié des voitures de la planète propulsées à l’électricité, ait lieu le plus tôt possible, par exemple à l’horizon 2040. Si cet objectif était atteint, cela signifierait au minimum 6 gigatonnes de CO2 par an émis, en moins, dans l’atmosphère (15 % des émissions humaines actuelles de CO2), sans compter la diminution drastique de nombreux polluants dangereux, responsables, selon l’OMS, de 3 à 5 millions de décès par an…
Mais la montée en puissance rapide et inéluctable des véhicules tout électrique, mais également hybrides rechargeables va également profondément transformer, dans un sens positif, la façon dont nous produisons, nous stockons et nous consommons l’énergie. Depuis 2010, le coût des batteries a été divisé par deux, et pourrait encore être divisé par trois d'ici 2020 pour atteindre les 100 $/kWh.
Dans une telle perspective, il faut bien comprendre que toutes les batteries de nouvelle génération qui équiperont nos voitures électriques dans 5 ans deviendront également des accumulateurs domestiques qui stockeront l’électricité, lorsque celle-ci est vendue à bas coût (heure creuse), tout en assurant leurs fonctions de fourniture d’énergie pour l’habitation et les déplacements. Ces milliards de batteries polyvalentes et propres, à électrolyte solides, qui équiperont demain nos maisons et nos voitures, joueront enfin, sans doute articulées avec le vecteur énergétique de l’hydrogène, un rôle décisif dans la gestion et l’équilibrage intelligent et en temps réel des réseaux d’énergie qui seront alors massivement alimentés par des sources d’origine renouvelable.
Après un siècle et demi de domination sans partage sur le monde des transports, le véhicule à moteur à combustion est donc appelé à disparaître d’ici le milieu de ce siècle. Il aura rendu d’inestimables services à l’Humanité et aura donné aux hommes une liberté de déplacements inimaginable pour nos ancêtres. Mais le monde a changé et si nous voulons transmettre uns planète vivable à nos enfants, nous devons sans regrets nous préparer à cette mutation de civilisation qui ouvre la voie à une réconciliation entre la soif inextinguible de progrès et d’innovation de l’homme et la nécessité de passer un nouveau contrat global de vie en bonne intelligence avec notre Planète.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L’Oak Ridge National Laboratory (ORNL), situé dans le Tennessee, a développé un matériau à base de plantes composé non seulement des sous-produits de biocarburants mais qui affiche une meilleure adhérence inter-couches. A terme, il espère que ce nouveau matériau d’impression 3D végétal pourra réduire la consommation de thermoplastiques à base de pétrole qui sont moins durables et moins respectueux de l’environnement.
L’ORNL travaille depuis longtemps avec l’impression 3D ; il a notamment investi dans une imprimante 3D XXL BAAM pour créer des pièces à grande échelle. Il avait imprimé en 3D les différentes parties d’une pelleteuse et affirmait avoir créé la cabine en 5 heures seulement à base de fibres de carbone. Il poursuit désormais son avancée dans le secteur de la fabrication additive avec ce nouveau matériau à base de plantes qui pourrait bien faire partie de notre sélection de matériaux étonnants.
Le matériau en question serait composé de caoutchouc, de fibres de carbone, d’ABS et de lignine, son ingrédient clé. La lignine est une biomolécule qu’on retrouve principalement dans le bois et apporte rigidité, imperméabilité et résistance à la décomposition. C’est également un sous-produit des procédés de production des biocarburants ; son utilisation dans le développement d’un nouveau matériau d’impression 3D permettrait donc de réduire les déchets des biocarburants et de créer des plastiques plus résistants.
En termes d’imprimabilité, l’équipe d’ORNL affirme que son matériau à base de plantes a d’excellentes propriétés et performances : la lignine ajouterait naturellement de la solidité aux parois cellulaires végétales. Le matériau, une fois imprimé, aurait démontré une grande résistance entre les couches d’ABS. Amit Naskar de l’ORNL explique : “Nous travaillons avec la lignine depuis 5 ans, on tire donc parti de notre expérience pour peaufiner la composition du matériau".
La fibre de carbone serait également un élément clé dans ce matériau composite. On sait qu’elle permet d’alléger une pièce tout en augmentant sa solidité mais, cette fois-ci, les chercheurs se sont rendu compte qu’en ajoutant des fibres de carbone discontinues, le degré de réticulation s’améliorait, entraînant alors une meilleure adhérence inter-couches. L’ORNL conclut en expliquant que sa recherche pourrait ouvrir une voie vers l’utilisation de la lignine pour remplacer les thermoplastiques à base de pétrole utilisés dans la fabrication additive et ainsi améliorer l’imprimabilité des matériaux avec des performances mécaniques exceptionnelles.
Article rédigé par Georges Simmonds pour RT Flash
3dnatives
|
|
|
|
|
|
|
|
Des chercheurs et ingénieurs de l’Imperial College de Londres ont dévoilé, lors de la finale d’un concours d’innovation organisé par leur université, un matériau de construction aux propriétés étonnantes.
Il s'agit d' un béton d’un nouveau genre à partir du sable du désert en utilisant un liant naturel dont la formule reste secrète, en lieu et place du ciment qui fait aujourd’hui office de « colle » dans la recette du béton classique. Baptisé Finite, ce nouveau matériau possède une empreinte carbone deux fois moindre que celle de son prédécesseur, et des propriétés mécaniques très prometteuses.
« Notre préoccupation était de développer une façon de construire parfaitement durable, qui se passe des ressources difficiles à se procurer sur cette planète », raconte l’ingénieur Matteo Maccario, à l’origine du projet Finite avec son camarade Hamza Oza, ainsi que deux designers, Carolyn Tam et Saki Maruyama.
« Contrairement à ce que nous pensions initialement, le sable n’est pas si abondant. Le boom de la construction dans les pays émergents a entraîné une pénurie qui a des conséquences environnementales et sociales dramatiques dans des régions du monde comme l’Inde, les Philippines ou le Vietnam », ajoutent les inventeurs.
Pourtant, sur Terre, la surface des déserts atteint 5 milliards d’hectares, l’équivalent du continent américain, et augmente chaque année de 6 millions d’hectares. Mais leurs grains de sable, façonnés par le vent, sont trop petits, trop ronds et trop lisses pour être agglomérés et former du béton classique. Seul le sable de la mer et du lit des rivières intéressait donc jusqu’à présent les cimentiers.
Or, avec l’explosion démographique et le développement des pays émergents, la demande de béton connaît une croissance exponentielle. Dans certaines régions du monde, les gisements de granulats des sous-sols et des bords de mer arrivent à épuisement. Désormais, les fonds sous-marins y font eux aussi l’objet d’une extraction intense, au prix d’un lourd impact écologique.
Article rédigé par Georges Simmonds
UKCW
|
|
|
|
|
|
|
|
La communication et la cryptographie quantiques sont l’avenir de la communication hautement sécurisée. Mais il reste à relever de nombreux défis avant la mise sur pied d’un réseau quantique mondial, notamment la propagation du signal quantique sur de longues distances. Un défi majeur consiste à créer des mémoires capables de stocker l’information quantique portée par la lumière.
Des chercheurs de l’Université de Genève (UNIGE), en collaboration avec le CNRS, ont découvert un nouveau matériau dans lequel un élément, l’ytterbium, est capable de stocker et protéger la fragile information quantique, tout en fonctionnant à des fréquences élevées. Cela en fait un candidat idéal pour des futurs réseaux quantiques, dont l’objectif est de propager le signal sur de longues distances en servant de répéteurs.
Aujourd’hui, la cryptographie quantique passe par la fibre optique, sur quelques centaines de kilomètres. Elle est caractérisée par son aspect de haute sécurité : il est en effet impossible de copier les informations ou de les intercepter sans les faire disparaître. Toutefois, cette impossibilité de copier le signal empêche aussi les scientifiques de l’amplifier pour le diffuser sur de longues distances, comme c’est le cas avec le réseau wifi.
Le signal ne pouvant être ni copié ni amplifié sous peine de disparaître, les scientifiques se penchent actuellement sur la fabrication de mémoires quantiques capables de le répéter en capturant les photons et en les synchronisant entre eux afin de les diffuser toujours plus loin. Reste à trouver le matériau approprié pour confectionner ces mémoires quantiques.
"Toute la difficulté est de trouver un matériau capable d’isoler l’information quantique portée par les photons des perturbations environnementales pour que l’on puisse les retenir environ une seconde et les synchroniser entre eux", explique Mikael Afzelius, chercheur au Département de physique appliquée de la Faculté des sciences de l’UNIGE. "Or, en une seconde, un photon parcourt environ 300 000 km" ! Les physiciens et les chimistes doivent donc trouver un matériau très bien isolé des perturbations, mais capable de fonctionner à des hautes fréquences permettant de stocker et restituer le photon rapidement, deux caractéristiques souvent considérées comme étant incompatibles.
"Nous nous sommes alors intéressés à une terre rare du tableau périodique qui avait été très peu étudiée, l’ytterbium", expose Nicolas Gisin, professeur au Département de physique appliquée de la Faculté des sciences de l’UNIGE et fondateur d’ID Quantique. "Notre objectif est de trouver le matériau idéal pour la confection des répéteurs quantiques, et cela passe par l’isolation des atomes de leur environnement qui a tendance à perturber le signal", complète-t-il. Cela semble être le cas avec l’ytterbium !
En soumettant cette terre rare à des champs magnétiques très précis, les physiciens de l’UNIGE et du CNRS ont découvert qu’elle entre dans un état d’insensibilité qui la coupe des perturbations de son environnement et qui permet de piéger le photon pour le synchroniser.
"Nous avons trouvé un « point magique » en variant l’amplitude et la direction du champ magnétique, s’enthousiasment Alexey Tiranov, chercheur au Service de physique appliquée de la Faculté des sciences de l’UNIGE, et Philippe Goldner, chercheur à l’Institut de recherche de chimie Paris (CNRS/Chimie ParisTech). Lorsque ce point est atteint, on augmente d’un facteur 1 000 les temps de cohérence des atomes d’ytterbium, tout en travaillant à des hautes fréquences" !
Les physiciens sont actuellement en train de construire des mémoires quantiques à base d’ytterbium qui permettent de réaliser rapidement les transitions d’un répéteur à l’autre, tout en gardant le photon le plus longtemps possible pour effectuer la synchronisation nécessaire. "Ce matériau ouvre un nouveau champ des possibles dans la création d’un réseau quantique mondial et souligne l’importance de poursuivre des recherches fondamentales en parallèle à des recherches plus appliquées, comme la création d’une mémoire quantique", conclut Mikael Afzelius.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Samsung Display a annoncé que son écran de smartphone incassable vient de passer les certifications des Underwriters Laboratories, une structure dépendant d’une agence du gouvernement fédéral des États-Unis.
L’écran a subi plusieurs épreuves pour obtenir ce feu vert. Tombé 26 fois d’une hauteur de 1,2 mètre, la dalle de l’appareil de test n’a montré aucune cassure. Et pour aller encore plus loin, les testeurs ont surpassé les standards du département américain de la Défense. Le prototype a fait des chutes de 1,8 mètre sans se briser. Enfin, l’appareil a résisté à des températures extrêmes de 71°C et - 32°C.
Samsung explique que cet écran est fortifié par la présence d’un substrat plastique qui vient remplacer l’habituel panneau de verre. Plus résistant aux chutes, il convient aussi bien à l’Oled souple utilisé pour l’Infinity Display, présent sur les smartphones haut de gamme de la marque. Néanmoins, d’après Samsung, le matériau utilisé se rapproche grandement de ce que propose le verre et promet à la fois transparence, légèreté et rigidité.
Cet écran révolutionnaire devrait équiper le futur smartphone Galaxy Note 10, attendu pour la fin 2019 et Samsung envisage d'étendre progressivement l'usage de ce nouveau type d'écran à l'ensemble de ses appareils numériques.
Article rédigé par Georges Simmonds pour RT Flash
Samsung
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon une étude réalisée par des scientifiques australiens de l'Université du Queensland, dirigés par Kendall Jones, il ne reste plus que 13 % des océans de la planète pouvant être considérés comme sauvages et ils pourraient disparaître complètement d'ici 50 ans, sous les effets conjugués de l'augmentation du fret maritime, de la pollution et de la surpêche, selon cette étude scientifique.
Ces chercheurs ont analysé les impacts humains sur l'habitat marin, entre ruissellements et augmentation du transport maritime. Ils ont établi une cartographie des zones sous-marines considérées comme intactes et les écosystèmes "pour l'essentiel libres de perturbations humaines". Ces zones sauvages sont essentiellement situées dans l'Antarctique et l'Arctique ainsi que près d'îles reculées du Pacifique. Les zones côtières proches d'activités humaines sont celles où la vie marine est la moins florissante.
"Les zones marines qui peuvent être considérées comme intactes sont de plus en plus rares à mesure que les flottes marchandes et de pêche étendent leur champ d'action à la quasi totalité des océans du monde et que les ruissellements de sédiments ensevelissent de nombreuses zones côtières", a déclaré Kendall Jones. "L'amélioration des technologies du transport maritime signifie que les zones les plus reculées et sauvages pourraient être menacées à l'avenir, y compris les zones jadis recouvertes par la glace désormais accessibles à cause du changement climatique".
Selon les chercheurs, seuls 5 % des zones restées sauvages sont situés dans des régions protégées. Le restant est d'autant plus vulnérable. Les chercheurs appellent au renforcement de la coopération internationale pour protéger les océans, lutter contre la surpêche, limiter les extractions minières sous-marines et réduire les ruissellements polluants.
"Les régions maritimes sauvages constituent un habitat vital à des niveaux sans égal, comprennent une abondance énorme d'espèces et de diversité génétique, ce qui leur donne de la résistance face aux menaces comme le changement climatique", a expliqué James Watson, de la Wildlife Conservation Society australienne. "Nous savons que ces zones diminuent de façon catastrophique. Leur protection doit devenir l'objectif d'accords environnementaux multilatéraux. Faute de quoi, elles disparaîtront vraisemblablement d'ici 50 ans".
En 2016, l'ONU a commencé à travailler sur un accord international qui régirait et protégerait la haute mer. "Cet accord aurait le pouvoir de protéger de vastes espaces en haute mer et pourrait représenter notre meilleure chance de protéger la dernière vie marine sauvage", souligne M. Jones.
Article rédigé par Georges Simmonds
Scientific American
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des scientifiques de l'Institut de Biomédecine de l'Université de Séville ont découvert une nouvelle forme géométrique : le "scutoid". C'est en travaillant sur les cellules épithéliales (qui recouvrent la surface du corps et tapissent l'intérieur de tous les organes creux) que les chercheurs espagnols en sont arrivés à définir cette nouvelle forme géométrique.
"Les cellules épithéliales sont les éléments de base à partir desquels un organisme est formé. Ils sont comme des Lego à partir desquels les animaux sont fabriqués", explique le professeur espagnol Luis Maria Escudero. Lorsqu'un organisme évolue, devenant plus complexe, ces cellules vont "se mouvoir et s'unir pour s'organiser correctement et donner leur forme définitive aux organes", poursuit le professeur. Et c'est là que la forme géométrique "scutoid" intervient.
C'est parce qu'elles ont cette forme géométrique spécifique que ces cellules épithéliales arrivent à solidement s'imbriquer et à former des organes. Auparavant, la communauté scientifique pensait que ces cellules avaient la forme de "pyramides tronquées". Or, les chercheurs espagnols affirment que la forme de celles-ci -une sorte de "prisme tordu" selon le communiqué- est plus complexe, donnant donc naissance au "scutoïd".
Cette découverte présente un réel intérêt scientifique en termes de biomédecine car les chercheurs espagnols espèrent dorénavant trouver les molécules qui amènent les cellules à adopter cette forme et, ainsi, faire progresser la recherche portant sur la fabrication d'organes artificiels en laboratoire.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
Des chercheurs japonais ont annoncé qu'ils allaient procéder au premier essai sur l'homme d'un traitement de la maladie de Parkinson par des cellules souches dites "iPS". Ces scientifiques de l'Université de Kyoto prévoient d'injecter dans le cerveau de patients cinq millions de cellules souches pluripotentes "iPS" (pour induced pluripotent stem cells) capables de donner n'importe quel type de cellule. Ces cellules iPS provenant de donneurs sains se développeront en neurones producteurs de dopamine, un neurotransmetteur intervenant dans le contrôle de la motricité.
La maladie est marquée par la dégénérescence de ces neurones et se traduit par des symptômes qui s'aggravent progressivement tels que des tremblements, une rigidité des membres et une diminution des mouvements du corps. Elle touche plus de dix millions de personnes dans le monde, selon la Parkinson's Disease Foundation américaine. Les thérapies actuellement disponibles "améliorent les symptômes sans ralentir la progression de la maladie", explique cette fondation.
L'essai clinique portera sur sept participants âgés de 50 à 69 ans et l'université surveillera l'état des patients pendant deux ans. Cet essai fait suite à une expérience réalisée sur des singes avec des cellules souches d'origine humaine qui ont permis d'améliorer la capacité de primates atteints d'une forme de Parkinson de faire des mouvements, selon une étude publiée fin août 2017 dans la revue scientifique Nature. La survie des cellules greffées, par injection dans le cerveau des primates, a été observée pendant deux ans, sans aucune apparition de tumeur.
Les cellules souches pluripotentes induites (iPS) sont des cellules adultes ramenées à l'état quasi embryonnaire en leur faisant de nouveau exprimer quatre gènes (normalement inactifs dans les cellules adultes). Cette manipulation génétique leur redonne la capacité de produire n'importe quel genre de cellules (pluripotence), selon le lieu du corps où elles sont ensuite transplantées.
En septembre 2014, les travaux de l'équipe de Masayo Takahashi, une professeure de l'institut public Riken, ont permis d'implanter dans l'œil d'une patiente, une femme de 70 ans, un mince film de cellules créées à partir de cellules iPS, elles-mêmes issues de cellules adultes de la peau du bras de cette personne. Il s'agissait de traiter une des formes de la maladie oculaire appelée dégénérescence maculaire liée à l'âge (DMLA), la première cause de cécité des plus de 55 ans dans les pays industrialisés. L'usage de cellules iPS ne pose pas de problèmes éthiques fondamentaux, au contraire des cellules souches prélevées sur des embryons humains.
Article rédigé par Georges Simmonds pour RT Flash
The Japan Times
|
|
|
|
|
|
|
|
A l'occasion d’un congrès mondial consacré à la lutte contre la maladie d’Alzheimer, à Chicago, le laboratoire américain Biogen et son partenaire japonais Eisai ont présenté conjointement un essai clinique réalisé sur 858 patients atteints de la maladie à un stade précoce. Lors de la phase II de l’essai, tous ont été soumis pendant 18 mois à une nouvelle molécule appelée BAN32401. Pour la première fois, les chercheurs ont constaté que ce traitement permettait de ralentir la progression de la maladie chez les patients en réduisant les plaques amyloïdes accumulées dans le cerveau.
Ces plaques amyloïdes sont non seulement un marqueur de la maladie d’Alzheimer, mais elles sont aussi responsables de l’altération des fonctions mentales des malades, et en particulier de la perte de mémoire. Composées de la protéine A-bêta, elles s’accumulent de manière anormale au niveau des neurones, entraînant de manière progressive et irrémédiable des lésions cérébrales.
Lors de l’essai clinique, certains patients ont reçu des doses plus importantes de la molécule BAN32401 : 10 mg par kg et par mois, ou tous les 15 jours. Les scientifiques ont alors observé une baisse de l’aggravation des troubles de la mémoire chez 30 % des patients. Au bout de 18 mois, les plaques amyloïdes avaient disparu.
Pour Alfred Sandrock, responsable de la recherche chez Biogen, "ces résultats soulignent que les maladies neurodégénératives pourraient ne pas être aussi difficiles à traiter qu’elles le paraissaient". Un point de vue que partage le Professeur Bruno Vellas, fondateur du Gérontopôle du CHU de Toulouse et du Consortium européen sur la maladie d'Alzheimer (EADC). Selon lui, cette nouvelle molécule pourrait révolutionner la prise en charge de la maladie d’Alzheimer. "Si cette phase II est confirmée par les phases III en cours y compris à Toulouse, nous avons de grandes chances de parvenir à un traitement d’ici 2 ou 3 ans".
Article rédigé par Georges Simmonds pour RT Flash
Archy Worldys
|
|
|
|
|
|
|
|
Des travaux récents ont confirmé les effets bénéfiques de la caféine sur les processus mnésiques, et la mémoire à long terme en particulier. Cette observation est à mettre en lien avec différentes études épidémiologiques proposant que la consommation habituelle de caféine réduit le déclin cognitif au cours du vieillissement.
D'autres études prospectives mettent également l'accent sur la relation inverse existant entre consommation de caféine et le risque de développer la maladie d'Alzheimer. Les effets protecteurs de la caféine seraient optimaux pour des doses correspondant à 3 à 4 tasses par jour. De manière intéressante, différentes études expérimentales sur des modèles animaux de la maladie d'Alzheimer reproduisant les lésions et les troubles de la mémoire associés démontrent un effet bénéfique de la caféine à des doses comparables, même si les effets sur les symptômes comportementaux de la maladie ont été récemment discutés.
Les cibles principales de la caféine sont des récepteurs appelés récepteurs adénosinergiques. Les effets de la caféine sont particulièrement liés à sa capacité à bloquer l'un de ces récepteurs appelé récepteur adénosinergique A2A.
Il y a quelques années, l'équipe Inserm de David Blum avait démontré que bloquer spécifiquement ce récepteur par des approches génétiques et par un dérivé chimique de la caféine réduisait les troubles de la mémoire, les troubles de la communication neuronale et les dysfonctions de la protéine Tau dans un modèle animal de la maladie d'Alzheimer.
Dans une nouvelle étude, la même équipe, en collaboration avec des collègues de l'université de Lisbonne et de Bonn, a démontré que le blocage des récepteurs adénosinergiques A2A par ce même composé dérivé de la caféine réduisait les lésions amyloïdes dans le cortex et les troubles mnésiques associés dans un modèle animal reproduisant les plaques amyloïdes. Cette nouvelle étude suggère donc que les composés dérivés de la caféine ciblant les récepteurs adénosinergiques A2A agissent positivement vis-à-vis des deux lésions cérébrales caractéristiques de la maladie.
L'ensemble de ces observations amène à penser que l'utilisation de molécules dérivées de la caféine serait une option thérapeutique chez les patients atteints de la maladie d'Alzheimer. Il est très intéressant de constater que ce type de molécules existe et a déjà fait l'objet d'essais cliniques dans le contexte de la maladie de Parkinson. Il est donc envisageable et intéressant de repositionner ces molécules dans le contexte thérapeutique de la maladie d'Alzheimer.
Article rédigé par Georges Simmonds pour RT Flash
Le Point
|
|
|
|
|
|
|
|
Une étude réalisée par des chercheurs de l’Université de Barcelone, en collaboration avec des experts de l'Université d'État de New York, a identifié 40 gènes liés au comportement agressif chez l'homme et la souris.
Les scientifiques rappellent que le comportement agressif est présent tout au long de l'évolution biologique. C’est en effet un outil de survie des différentes espèces. Mais jusqu’à ces travaux, l’impact des facteurs environnementaux combinés aux facteurs génétiques et leurs interactions possibles induisant ce type de comportement n’avait jamais été étudié. Ici, les chercheurs combinent les données de plusieurs études d'association pangénomique (GWAS) pour identifier les variantes génétiques de risque communes à la population générale, et, chez les modèles murins, les chercheurs identifient des gènes exprimés différemment chez des animaux agressifs et non agressifs.
Les humains et les souris partagent une base génétique commune concernant le comportement violent, notent d’abord les auteurs. Une quarantaine de gènes chez l'homme et la souris favorisent ainsi des comportements agressifs et participent aux processus biologiques liés à leur développement.
Ces travaux montrent également que si l'un de ces gènes centraux est modifié, cela peut affecter l’expression d’autres gènes et conduire au phénotype agressif. Par exemple, le gène RBFOX1, identifié dans cette nouvelle étude et qui avait déjà été documenté par la même équipe, régule l'expression de 15 des 40 gènes identifiés. Un autre gène, MAOA, qui code une enzyme de la neurotransmission sérotoninergique, s’avère lié à des médicaments utilisés pour traiter plusieurs pathologies psychiatriques (ISRS).
Une autre conclusion de ces travaux est cette base génétique partagée entre l'agressivité chez les enfants et les adultes, et le trouble déficitaire de l'attention avec hyperactivité (TDAH), l'agressivité chez les adultes, et enfin, la dépression majeure. En revanche ces recherches n'ont pas permis de montrer une corrélation génétique avec d'autres troubles psychiatriques (dont la schizophrénie, le trouble bipolaire, l’autisme ou le syndrome de stress post-traumatique) qui ne semblent donc pas partager de facteurs génétiques de risque avec l'agressivité.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Pourquoi certains patients déprimés sont-ils réfractaires aux antidépresseurs les plus courants ? Pour essayer de répondre à cette question, des chercheurs de l’Inserm et de Sorbonne Université au sein de l’Institut du Fer à Moulin ont pu mettre en évidence le rôle majeur des neurones sécréteurs de sérotonine – la cible médicamenteuse privilégiée dans les dépressions – dans la régulation de leur propre activité.
En cause, un récepteur à la sérotonine porté par ces neurones dont la déficience pourrait être déterminante dans l’absence de réponse aux antidépresseurs les plus prescrits. Ces travaux ouvrent la voie à une meilleure compréhension de l’implication de la sérotonine dans les maladies psychiatriques.
La sérotonine est un neurotransmetteur – une substance chimique produite par certains neurones pour en activer d’autres – impliqué dans de nombreuses maladies psychiatriques telles que la dépression, l’addiction, l’impulsivité ou la psychose. Elle est sécrétée par des neurones spécifiques appelés neurones sérotoninergiques.
La libération de sérotonine hors de la cellule neuronale permet d’activer des neurones possédant des récepteurs spécifiques à ce neurotransmetteur. Lorsque ces récepteurs détectent une quantité suffisante de sérotonine dans le milieu extracellulaire, ils envoient un message d’activation ou d’inhibition au neurone qui les exprime.
Les neurones sérotoninergiques possèdent également plusieurs types de récepteur à la sérotonine, qu’on appelle alors autorécepteurs et qui leur permettent d’autoréguler leur activité. Des chercheurs de l’Inserm et de Sorbonne Universités/UPMC au sein de l’Institut du Fer à Moulin (Inserm, UPMC), se sont intéressés au rôle d’un des autorécepteurs des neurones sérotoninergiques appelé 5-HT2B, dans la régulation de leur activité, afin de mieux comprendre l’absence d’effet de certains traitements antidépresseurs.
En temps normal, lorsqu’un neurone sérotoninergique sécrète de la sérotonine dans le milieu extracellulaire, il va être capable d’en recapturer une partie qu’il pourra de nouveau relarguer a posteriori. Ce mécanisme assuré par un transporteur spécifique lui permet de réguler la quantité de sérotonine présente dans le milieu extracellulaire.
Le transporteur est la cible privilégiée des médicaments antidépresseurs utilisés pour traiter les pathologies psychiatriques impliquant la sérotonine. Ceux-ci sont appelés « inhibiteurs sélectifs de la recapture de la sérotonine » (ISRS) car ils empêchent la recapture par le transporteur. Dans le contexte de la dépression où la sécrétion de la sérotonine est trop réduite, les ISRS permettent donc de conserver une concentration normale de sérotonine dans le milieu extracellulaire.
L’équipe de recherche est partie de l’observation que, chez la souris, lorsque le neurone sérotoninergique ne porte pas d’autorécepteur 5-HT2B, d’une part l’activité des neurones sérotoninergiques est inférieure à la normale et d’autre part les molécules bloquant l’activité du transporteur comme les antidépresseurs ISRS sont sans effet sur la quantité extracellulaire de sérotonine. Les chercheurs ont ainsi montré que, pour avoir un effet, ces molécules nécessitaient la présence et une expression normale du récepteur 5-HT2B à la sérotonine.
Ils ont également découvert que lorsqu’un neurone sécrète de la sérotonine, son autorécepteur 5-HT2B détecte la quantité présente dans le milieu extracellulaire et envoie un signal au neurone pour qu’il sécrète d’avantage de sérotonine. Pour éviter une sécrétion excessive de sérotonine, le neurone sérotoninergique possède un régulateur négatif : l’autorécepteur 5-HT1A qui détecte également la quantité de sérotonine extracellulaire et va envoyer un signal d’inhibition de la sécrétion au neurone sérotoninergique.
Afin de conserver une activité neuronale normale, 5-HT2B permet de maintenir ainsi un certain niveau d’activité, en agissant comme un autorégulateur positif. Ces résultats, à confirmer chez l’humain, mettent en évidence un mécanisme d’autorégulation fine des neurones sérotoninergiques avec une balance entre des autorécepteurs activateurs et des autorécepteurs inhibiteurs. Ils constituent une avancée dans l’identification de nouvelles cibles médicamenteuses, dans la compréhension de l’implication de la sérotonine dans certaines pathologies psychiatriques et dans l’appréhension de l’inefficacité de certains traitements antidépresseurs.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Face au vieillissement inexorable de nos sociétés, la prise en charge et la prévention des différents types de démence sont devenues l'un des grands défis scientifiques et médicaux de ces 20 prochaines années. Des chercheurs de de l’Université de Tohoku, à Sendaï (capitale de la Préfecture de Miyagi, dans le Nord du Japon) ont expérimenté une technique d’échographie appliquée au cerveau, qui pourrait améliorer le traitement des patients atteints de démence.
En effet, selon ces données présentées dans la revue Brain Stimulation, les ondes ultrasonores appliquées au cerveau entier améliorent le dysfonctionnement cognitif. La démonstration est apportée ici chez l’animal, modèle de certains types de démence dont la démence vasculaire.
L'équipe, dirigée par le cardiologue Hiroaki Shimokawa, montre que l'application d'ultrasons pulsés de faible intensité (LIPUS) au cerveau entier de souris modèles de démence vasculaire et de maladie d'Alzheimer améliore la formation des vaisseaux sanguins (angiogenèse) et la régénération des cellules nerveuses (neurogenèse) sans effets secondaires évidents. Les scientifiques japonais font l’hypothèse que ce type de thérapie pourrait également bénéficier aux humains.
La thérapie LIPUS est une physiothérapie non invasive qui pourrait être appliquée aux patients âgés à risque élevé de démence de manière non invasive, de façon répétée pour prévenir la progression du déclin cognitif.
Alors que la démence affecte environ 50 millions de personnes dans le monde, qu’il n'existe actuellement aucun traitement curatif disponible pour la démence vasculaire ou la maladie d'Alzheimer, l’option est à étudier de près : les cellules qui tapissent les vaisseaux sanguins du cerveau sont serrées, formant une barrière hémato-encéphalique qui empêche les grosses molécules de pénétrer dans le tissu cérébral. Cela limite le champ des thérapies pharmacologiques et cellulaires possibles pour traiter la démence.
Une confirmation plus globale de précédents résultats : de précédentes études, de la même équipe, avaient montré l’efficacité de LIPUS sur la formation des vaisseaux sanguins chez des porcs atteints d'ischémie myocardique, une maladie caractérisée par une réduction du flux sanguin vers le cœur. D'autres sur la production de protéines impliquées dans la survie et la croissance des cellules nerveuses, ainsi que sur la régénération nerveuse. Cibler LIPUS sur l'hippocampe, la zone impliquée dans la mémoire, permet également d’améliorer la démence chez les souris…
Cette étude montre que la thérapie LIPUS s’avère efficace pour traiter des modèles murins de démence et permet d'obtenir une légère inversion de la déficience cognitive chez les souris modèles de démence vasculaire et de maladie d'Alzheimer lorsque LIPUS est appliquée à l'ensemble du cerveau 3 fois par jour sur des séances de 20 minutes. Ces travaux montrent également qu'au niveau moléculaire, les gènes liés aux cellules épithéliales sont réactivés…
Cette étude apporte donc la première preuve expérimentale d’efficacité de la thérapie LIPUS appliquée au cerveau entier à réduire nettement les dysfonctionnements cognitifs sans effets secondaires graves.
Article rédigé par Georges Simmonds pour RT Flash
Brain Stimulation
|
|
|
|
|
|
|
|
En 2008, deux chercheurs français à l'I2MC, Cédric Dray et Philipe Valet, ont découvert une hormone, "l'apeline", dans le cadre de recherches sur le métabolisme du glucose et du diabète. Ils ont étudié pendant dix ans cette hormone qui constitue une nouvelle piste dans le traitement du diabète de type II.
Ces chercheurs ont montré que l'apeline est produite par la contraction musculaire au cours de l’exercice et qu'elle permet une meilleure utilisation de l'énergie ainsi qu'un renforcement du muscle par mobilisation des cellules souches et régénération des myofibres. Ces chercheurs ont également montré qu’à mesure que l’âge progresse, la production d’apeline au cours de l’effort diminue.
Dans une nouvelle étude, ces scientifiques toulousains viennent de montrer cette fois l'intérêt de l'apeline dans la prévention de la sarcopénie : "Nous avons administré de l'apeline à des souris présentant des signes de sénescence et avons constaté une amélioration de leur force musculaire" explique Philippe Valet. Ces travaux ont montré que le dosage musculaire de l'apeline pourrait permettre de diagnostiquer précocement l'installation de la sarcopénie.
A terme, l'utilisation thérapeutique de l'apeline pourrait permettre de restaurer le capital musculaire des personnes âgées fragiles, c'est-à-dire qui ne sont pas encore dépendantes mais qui présentent déjà des signes de faiblesse. En récupérant du capital musculaire, elles pourront retrouver des capacités fonctionnelles et vieillir en meilleure forme.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
On sait depuis quelques années que la grande majorité des cancers de l’estomac est provoquée par la bactérie Helicobacter pylori, qui peut coloniser la muqueuse gastrique sans aucun symptôme. Une récente et vaste étude japonaise dirigée par le Professeur Suzuki Keio (University School of Medicine de Tokyo) et réalisée en double aveugle contre placebo a confirmé que l'éradication de cette bactérie par antibiothérapie avait bien un effet protecteur et diminuait sensiblement les risques ultérieurs de cancer de l'estomac.
Le cancer de l’estomac est le 5e plus fréquent mais le troisième plus meurtrier à l’échelle planétaire. En France, il touche 7.000 nouveaux patients chaque année, et provoque 4.500 décès par an. « L’association démontrée entre infection par H. pylori et cancer gastrique est aussi forte que celle entre tabac et cancer du poumon », explique Tamara Matysiak-Budnik, cancérologue au CHU de Nantes. Entre 20 et 30 % des Français sont infectés, contre 80 % en moyenne en Afrique et 10 % seulement dans les pays nordiques.
Entre 2 et 20 % des personnes concernées développeront un ulcère. 1 % d’entre elles devront affronter un cancer gastrique. « Ce processus complexe de carcinogenèse s’étend sur des décennies et passe par une cascade d’étapes, dont la première, la gastrite superficielle, ne survient pas sans infection par H. pylori », poursuit le professeur.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Région très riche en sites à hominidés fossiles, le sud-est de l'Afrique est considéré comme le lieu de l'origine de l'évolution humaine. Découverts dans cette région, des fossiles de l'australopithèque robuste Paranthropus robustus, contemporain d'Homo erectus, témoignent de sa présence entre 2 et 0,9 millions d'années. L'extinction de cette espèce dans le registre archéologique après cette date pourrait être reliée à des modifications environnementales, conséquences d'un changement climatique régional.
Une équipe internationale regroupant le Laboratoire Environnements et paléoenvironnements océaniques et continentaux (CNRS, Université de Bordeaux), en collaboration avec plusieurs laboratoires européens, a mesuré un ensemble d'indicateurs environnementaux provenant d'un enregistrement sédimentaire marin de l'Océan Indien sud couvrant les 2,14 derniers millions d'années. Ces indicateurs terrestres et marins ont permis de reconstituer les conditions climatiques du sud-est de l'Afrique pendant cette période. Des simulations climatiques transitoires calculant la composition isotopique de l'eau ont été réalisées en appui à ce travail.
En combinant l'ensemble de ces approches, les chercheurs montrent qu'entre 1 et 0,6 million d'années environ, le bassin versant du Limpopo connaît une aridification progressive, entraînant une raréfaction des environnements boisés et humides, préférentiellement utilisés par Paranthropus robustus pour son alimentation. Cela aurait entraîné une contraction et une fragmentation des zones de population, provoquant la disparition des groupes les plus isolés.
Article rédigé par Georges Simmonds pour RT Flash
CEA
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|