|
|
|
|
|
NUMERO 1123 |
|
|
|
|
|
|
|
Edition du 01 Octobre 2021
|
|
|
|
|
Edito
Que faire face au fléau de l’alcool ?
Cette semaine je reviens sur un débat, à la fois médical, scientifique et social qui refait régulièrement surface, mais qui a pris, avec la publication de nouvelles études sur les méfaits de l’alcool, une tournure nouvelle, en relançant la question récurrente d’une éventuelle interdiction de la consommation d’alcool dans notre pays.
Il y a deux ans, une étude publiée par l’Académie nationale de médecine a fait grand bruit en estimant que le coût social global de l’alcool en France était de l’ordre de 120 milliards d’euros par an (environ 6 % du PIB), si l’on intègre les coûts directs et indirects (soins, accidents du travail, pertes d’emplois). On mesure mieux l’ampleur de ce coût pour notre société quand on sait qu’il représente 58 % de l’ensemble de nos dépenses annuelles de santé (208 milliards en 2020) ou encore trois fois le déficit annuel de l’assurance-maladie.
Selon cette étude, le « coût externe » de l’alcool est 8 % plus élevé que celui du tabac, bien que le nombre des décès par le tabac soit plus important que ceux engendrés par l’alcool. Cette différence s’explique par un âge moyen au décès plus jeune pour l’alcool que pour le tabac (63 ans, contre 71 ans) et par le fait que de nombreux décès accidentels engendrés par l’alcool interviennent précocement. Quant aux taxes sur les alcools, censées compenser les méfaits de cette substance pour la santé, elles ne représentent qu’un tiers du coût réel des soins des maladies engendrées par l’alcool.
Il faut toutefois rappeler que la consommation moyenne d’alcool par habitant en France a considérablement reculé depuis 60 ans. Alors qu'un Français consommait en moyenne 200 litres d'alcool par an en 1960, il n'en consomme plus que 80 litres, selon l'Insee, en 2018. La consommation de vin a été divisée par 3,5 en 60 ans, passant de 128 à 36 litres en moyenne par adulte et par an. Reste qu’avec 11,7 litres d’alcool pur par an et par habitant (contre 21 litres en 1970) en 2020, la France reste un grand consommateur d’alcool et se situe toujours au-dessus de la moyenne européenne (10 litres par an et par habitant).
Aujourd’hui, on estime qu’il y a dans notre pays 5 millions de buveurs excessifs, qui ne parviennent pas à maîtriser leur consommation d’alcool. En 2017, près de la moitié de la population (49 %) ne buvait que 3 % du volume total consommé dans l'année, un tiers (35 %) en consommait 91 %, tandis que les 10 % des plus gros buveurs consommaient 58 % de l’ensemble des boissons alcoolisées… .
En 2018, des scientifiques, épidémiologistes et spécialistes de santé publique, ont revu à la baisse le niveau de consommation préconisé pour limiter les risques sanitaires liés à l’alcool. Selon ces scientifiques, il est recommandé de ne pas dépasser les 100 g d'alcool pur par semaine, avec abstinence au moins deux jours par semaine et un mois par an. Cela correspond à 10 verres “standard” de 25 cl de bière, de 10 cl de vin, ou de 3 cl d'alcool fort. Ce niveau de consommation a été calculé en examinant la durée de vie et les causes de décès chez 600.000 buveurs, sujets de 83 études médicales (Voir The Lancet). Ces travaux indiquent qu'à l'âge de 40 ans, l’espérance de vie est réduite de six mois en consommant de 100 à 200 g d'alcool par semaine, d'un à deux ans avec 200 à 350 g, et de quatre à cinq ans avec plus de 350 g.
Face à ce fléau de l’alcoolisme, les pouvoirs publics n’ont cessé de durcir la législation au fil du temps. Il y a plus d’un siècle, la loi du 1er octobre 1917 organisa la répression de l’ivresse sur la voie publique. La loi du 24 septembre 1941 organisa la classification et la vente des boissons alcoolisées (dont la fameuse Licence IV), avec des restrictions de consommation selon ces groupes. La loi du 9 juillet 1970 a instauré, pour la première fois en France, un taux légal d’alcoolémie. La loi du 12 juillet 1978 a autorisé les contrôles d’alcoolémie, même en l’absence d'infractions ou d'accidents.
La loi « Evin » du 10 janvier 1991 a notamment sensiblement encadré et restreint le champ de la publicité en faveur des boissons alcoolisées. La loi du 21 juillet 2009 portant réforme de l'hôpital et relative aux patients, à la santé et aux territoires, est ensuite venue étendre l'interdiction de la vente des boissons alcooliques à tous les mineurs. Le décret du 1er juillet 2014 est venu également strictement limiter la détention et la consommation d’alcool au sein des entreprises. La loi du 26 janvier 2016 est venue rendre obligatoire la vérification de l’identité, pour toute vente d’alcool à emporter. La loi du 27 décembre 2019 permet à présent au Maire de fixer une plage horaire, qui ne peut pas débuter avant 20h et qui ne peut pas s’achever après 5h, durant laquelle la vente à emporter de boissons alcoolisées est interdite. Enfin, le décret du 2 avril 2021, pris pour lutter contre la pandémie de Covid-19, interdit la consommation d'alcool sur la voie publique et la vente d'alcool à emporter.
C’est dans ce contexte qu’un nouveau rapport très instructif de l’Inserm, intitulé, « Réduction des dommages associés à la consommation d’alcool », a été publié il y a quelques semaines. Cette étude transdisciplinaire très complète révèle les dernières données épidémiologiques sur l’alcoolisme en France. Elle confirme que la consommation excessive d’alcool reste, on le sait peu, la première cause d’hospitalisation et la deuxième cause de mortalité évitable après le tabac en France (Voir Inserm).
Cette étude rappelle que la consommation excessive de boissons alcoolisées est encore responsable d’au moins 41 000 décès dans notre pays, soit 11 % des décès chez les hommes et 4 % chez les femmes. Ce travail souligne que la consommation d’alcool est responsable directement ou indirectement d’une soixantaine de maladies, parmi lesquelles des pathologies cardiovasculaires, certains cancers, de graves troubles psychiques, des dépressions, des suicides et des dommages occasionnés par des accidents de la route ou du travail provoqués par l’alcool.
Cette étude montre qu’un jeune de 17 ans sur dix consomme régulièrement de l’alcool et que la moitié a déjà connu une alcoolisation ponctuelle importante (binge drinking). Mais Chez les seniors (50 ans et plus), la consommation d’alcool est également excessive, ce qui se traduit par un risque accru de décès, ou de problèmes de santé liés aux interactions néfastes de l’alcool avec les traitements médicamenteux fréquents dans cette tranche d’âge. L’étude précise que la consommation d’alcool chez les femmes, sujet longtemps tabou, s’est par ailleurs banalisée, et augmente également, ce que confirme le Professeur Reynaud, addictologue réputé. Selon lui, il y aurait jusqu’à 1,5 million de buveuses excessives et 15 % des femmes de moins de 35 ans aurait une consommation à risque d’alcool.
Le rapport rappelle également qu’il n’existe pas de « risque zéro » en matière de consommation d’alcool, une réalité scientifique qui reste largement ignorée du grand public. C’est pourquoi cette étude a remplacé la notion de « seuils de risque » par celle de « repères de consommation à moindre risque », soit 2 verres par jour et 10 verres par semaine maximum. Le rapport insiste sur le fait qu’il existe toujours, comme pour le tabac, un bénéfice à réduire sa consommation d’alcool, même de façon minime, afin de diminuer les risques et les dommages associés. C’est pourquoi, précise l’étude, il est si important de mieux informer la population sur les repères de consommation, et d’identifier les consommateurs à risque pour les aider à limiter leur consommation. Il faut également, précise l’étude, améliorer la prise charge médicale et psychologique des personnes dépendantes à l’alcool, qui doivent être considérées comme des patients souffrant d’une maladie chronique, et qui ne doivent plus être stigmatisées par la société.
Les experts préconisent de mieux encadrer la vente d’alcool en augmentant le prix et les taxes et en limitant son accessibilité, notamment pour les mineurs. L’autre levier important est celui de la communication, de la prévention et de l’éducation du public, au travers d’interventions ciblées (en milieu scolaire, au travail, auprès des parents…) ou de campagnes, telles que le « Janvier sans alcool ». S’agissant de la prise en charge des personnes devenues dépendantes de l’alcool, les chercheurs soulignent son insuffisance criante et recommandent de développer la réinsertion psychosociale, en rappelant que seulement 10 % des personnes alcoolo-dépendantes bénéficiaient d’une bonne prise en charge en France.
Soulignons également qu’il y a quelques jours, l’OMS a proposer de doubler les taxes sur l'alcool en Europe, ce qui permettrait, selon cette organisation, d’éviter 4 800 décès par cancer chaque année sur notre continent, soit environ 6 % des morts de cancers liés à la consommation d’alcool, relève l’organisation sanitaire de l’ONU. L’OMS souligne que les niveaux actuels de taxation de l’alcool restent trop faibles pour faire diminuer drastiquement la consommation d’alcool dans de nombreux pays européens. Selon l’OMS, sur les 4,8 millions de nouveaux cas de cancer chaque année en Europe, 1,4 million, ainsi que 650.000 décès, sont indirectement liés à la consommation d’alcool. Parmi ceux-ci, l’organisation estime que 180.000 cas et 85.000 morts sont directement causés par l’alcool.
Il y a quelques semaines, une vaste étude publiée par le Centre international de recherche sur le cancer (CIRC) de Lyon a rappelé, pour sa part, qu’environ 4 % des cas de cancer détectés l’an dernier dans le monde étaient liés à la consommation d’alcool, y compris modérée, La plupart de ces cancers attribuables à l’alcool sont associés à une consommation « à risque et excessive » (plus de deux boissons alcoolisées par jour), selon l’étude. Mais ce travail précise que, même une consommation « légère à modérée » (jusqu’à deux verres d’alcool par jour) n’est pas sans risque et avait probablement entraîné plus de 100 000 nouveaux cas de cancer dans le monde en 2020, sur les 19 millions de nouveaux cas de cancers enregistrés par l’OMS. Cette vaste recherche précise qu’en 2020, les types de cancer avec le plus grand nombre de nouveaux cas associés à la consommation d’alcool étaient le cancer de l’œsophage (190 000 cas), le cancer du foie (155 000 cas) et le cancer du sein chez les femmes (98 000 cas). La proportion de nouveaux cas de cancers liés à l’alcool est estimée par le CIRC à 5 % en France (20 000 cas), 4 % au Royaume Uni (16 800), 3 % aux Etats-Unis (52 700) ou encore 4 % en Allemagne (21 500).
Mais en épidémiologie, rien n’est simple, surtout lorsqu’on s’attaque à la question complexe de savoir quels sont les effets réels et globaux d’une consommation modérée d’alcool sur la santé et l’espérance de vie. Récemment, des chercheurs de l’University College London (UCL) ont par exemple estimé le risque de crise cardiaque, d'accident vasculaire cérébral, d'angine de poitrine et de décès chez 48.423 adultes atteints de maladies cardio-vasculaires (MCV), suivis pendant 20 ans. Ils ont montré que le fait de consommer jusqu'à 105 grammes d'alcool par semaine (ce qui équivaut à environ 13 unités ou un peu plus d'une bouteille de vin) est associé à une réduction significative du risque de crise cardiaque, d'accident vasculaire cérébral (AVC), d'angine ou de décès chez les personnes atteintes de MCV (Voir UCL Discovery).
L’analyse constate que parmi ces personnes atteintes de maladies cardiaques, celles qui consomment jusqu'à 15 grammes d'alcool par jour, ce qui équivaut à 50 cl de bière ou 1 verre de vin encourent un risque plus faible de récidive d'infarctus du myocarde, d’AVC, d'angine de poitrine ou de décès que ceux qui ne boivent pas. L’étude montre également que les personnes présentant le risque de récidive de MCV le plus faible consomment entre 6 et 8 grammes d'alcool par jour- soit environ un demi-verre de vin : chez ces consommateurs très modérés, le risque de récidive de crise cardiaque, d'angine de poitrine ou d’AVC est réduit de 50 % ; le risque de décès de cause cardiaque de 27 %. Au final, ces travaux concluent qu’une consommation de 7 grammes d’alcool par jour est associée à un risque de décès réduit de 21 % toutes causes confondues, par rapport aux sujets qui ne consomment pas du tout d’alcool. Les scientifiques ayant mené cette étude précisent toutefois de manière claire, « qu’il convient en toute circonstance, de réduire sa consommation hebdomadaire d'alcool en deçà d’un niveau raisonnable, et que les personnes qui ne boivent pas d’alcool ne doivent pas se mettre à en consommer dans l’espoir d’un bénéfice en terme de prévention cardiovasculaire ou de réduction des risques de mortalité, car la consommation d’alcool est associée à un risque accru d'autres maladies ».
Néanmoins cette étude, qui confirme d’autres travaux antérieurs, interroge. Comment une très faible consommation d’alcool peut-elle à la fois augmenter le risque de mortalité par cancer et diminuer le risque de mortalité « toutes causes ». Bien que cette étude n’apporte pas de réponse à cette question, l’hypothèse la plus probable est qu’il se pourrait qu’une consommation très modérée d’alcool, dans le cadre d’une vie saine, comportant une alimentation équilibrée et de l’exercice physique régulier, augmente, certes, légèrement les risques de certains cancers, mais parallèlement, et cela n’est pas contradictoire, diminue assez fortement les risques de décès pour certaines pathologies cardiovasculaires. Au final, une telle consommation, très modérée, il faut bien insister sur ce point, pourrait donc, mais ce point reste débattu au sein de la communauté scientifique, s’avérer neutre, voire plutôt bénéfique pour la santé, si l’on tient compte du risque global de décès et de la totalité des effets complexes de l’alcool sur l’organisme.
Sur ce point qui ne fait pas consensus au sein de la communauté scientifique, rappelons qu’en 2009, une autre étude réalisée par des chercheurs de l'Université de Wageningen (Pays-Bas) avait déjà montré que le fait de boire jusqu'à un demi-verre de vin par jour peut prolonger l'espérance de vie de cinq ans chez les hommes. Selon ces recherches menées auprès de près de 1.400 hommes suivis sur quatre décennies, entre 1960 et 2000, le fait de consommer jusqu'à 20 grammes d'alcool, quel qu'il soit, par jour, permet de vivre environ deux ans de plus (Voir Wageningen). L’étude précise, de manière intéressante, que les hommes qui ne boivent que du vin, à condition de ne pas dépasser un demi-verre par jour, voient leur espérance de vie prolongée d'environ deux ans et demi par rapport à ceux qui consomment régulièrement de la bière ou d'autres alcools. Mais ils peuvent espérer vivre cinq ans de plus que ceux qui ne boivent pas d'alcool du tout. L’étude souligne que la consommation de vin permet notamment de réduire les risques de maladies coronariennes ou cérébrovasculaires.
En 2018, une autre étude réalisée par des chercheurs de la prestigieuse Université américaine d’Harvard a par ailleurs montré que le fait d’observer cinq habitudes saines peut augmenter de dix ans l’espérance de vie. Ces recherches ont mis en lumière cinq facteurs réduisant les risques de mort prématurée : « ne pas fumer, afficher un Indice de Masse Corporelle bas, pratiquer au moins quotidiennement une activité physique de 30 minutes, avoir un régime alimentaire sain et avoir une consommation d’alcool modérée ». S’agissant de ce dernier point, une « consommation modérée » correspond, pour ces chercheurs, à un verre de vin standard par jour pour une femme, et deux verres pour un homme (soit respectivement 140 et 280 millilitres). Pour parvenir à ces conclusions, cette vaste étude a travaillé sur deux cohortes de 123 000 citoyens américains, suivis médicalement pendant une trentaine d’années (78 865 femmes suivies de 1980 à 2014 et 44 354 hommes de 1986 à 2014). À partir des 42 167 morts renseignés sur la période étudiée, les chercheurs ont conclu que le suivi simultané de ces cinq facteurs permet d’augmenter l’espérance de vie (Voir Harvard).
Alors, que conclure de l’ensemble de ces travaux, tous solides et de grande qualité ? Tout d’abord, que la consommation excessive d’alcool, même si elle a heureusement fortement diminué au cours de ces dernières décennies, reste un véritable problème de santé publique, dont les graves conséquences sanitaires et humaines tragiques ont été longtemps sous-estimées dans notre pays.
Ces recherches confortent également la nécessité d’abaisser les préconisations de seuils-limites de consommation d’alcool, comme cela vient d’être fait par nos autorités de santé. Le troisième point important que soulèvent ces études concerne la nécessité d’augmenter les taxes sur l’alcool, car les exemples étrangers montrent bien que le prix des boissons alcoolisées constitue un facteur contribuant à une baisse de la vente et de la consommation d’alcool. Enfin, dernier point, il est essentiel de renforcer de manière très importante l’information, à tous les âges et dans toutes les étapes de la vie (écoles, universités, entreprises, associations), concernant les dangers d’une consommation excessive d’alcool et l’ampleur du coût sanitaire et social de l’alcoolisme, encore largement sous-estimé dans le grand public.
Mais faut-il aller plus loin et envisager d’aller jusqu’à une interdiction totale de la vente et de la consommation d’alcool dans notre pays ou préconiser officiellement l’abstinence, en matière de consommation d’alcool ? Je ne le pense pas, et ce pour plusieurs raisons. D’abord parce qu’il semblerait, bien que le débat scientifique ne soit pas définitivement tranché sur ce point, qu’une consommation très modérée d’alcool, et plus particulièrement de vin rouge (boisson particulière qui contient de nombreux antioxydants, dont le fameux resvératrol), dans le cadre d’un mode de vie sain, n’augmente pas les risques de mortalité globale prématurée et ne soit pas nuisible pour la santé. Ensuite, parce que l’exemple américain de prohibition de l’alcool, entre 1920 et 1933 a clairement montré qu’une telle interdiction n’avait pas permis de réduire de manière significative la consommation d’alcool, car un marché parallèle gigantesque de production et de vente d’alcool s’était rapidement mis en place aux Etats-Unis, sous le contrôle du crime organisé. J’ajouterai, pour conclure, que, comme le disait Cicéron, « Les lois ne doivent pas être plus parfaites que les hommes auxquels elles s’adressent » et je crois qu’il est important, dans une société comme la nôtre où le vin et la vigne sont, depuis l’Antiquité, profondément enracinés dans notre culture, que nous puissions, de manière éduquée et responsable, conserver des moments particuliers de convivialité, d’amitié et de joie qui s’accompagnent, pour ceux qui le souhaitent, d’un verre de bon vin…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
À l’occasion de l’International Conference on Optica Fiber and Communications, des chercheurs japonais du National Institute of Information and Communications Technology (NIICT) ont présenté des travaux époustouflants : ils sont parvenus à transférer des données à un débit ahurissant de 319 térabits par seconde sur plus de 3 km. Surtout, leur technologie est compatible en l’état avec les réseaux de fibre optique moderne. Nous pourrions bien être à l’aube d’une petite révolution.
Ce chiffre ressemblerait presque à une erreur de saisie, mais il n’en est rien. Le précédent record pour une fibre optique de diamètre standard, établi en 2020 à hauteur de 178 Tb/s, a tout simplement volé en éclats. À titre de comparaison, les forfaits fibre optique proposés par les opérateurs au grand public grimpent au maximum à 10 Gb/s. Pour atteindre le débit proposé par l’équipe japonaise, il faudrait ainsi cumuler près de 32.000 box fibre haut de gamme. Cela permettrait de télécharger plus de 300 films en 4K… chaque seconde.
Pourtant, ces performances défiant toute concurrence ne sont pas conditionnées par un nouveau matériau révolutionnaire; elles se basent sur la même technologie de fibre optique déjà présente dans les infrastructures actuelles. Plutôt que d’utiliser un seul canal de fibre optique, l’équipe de recherche a misé sur une technique baptisée “Wavelength-division multiplexing”, ou WMD.
L’idée repose sur une association de plusieurs “cœurs” de fibre optique. Grâce à ce dispositif, le signal peut être réparti sur différentes bandes en simultané. Cela évite de faire porter toute la charge sur une seule et unique fibre, ce qui génère notamment des interférences. C’est un peu comme un convoi exceptionnel de plusieurs véhicules, qui transportent chacun une partie d’une gigantesque machine ; chaque véhicule générera moins de bouchons (les interférences) et arrivera à destination plus rapidement.
Pour atteindre cette vitesse record, les chercheurs japonais ont utilisé une fibre optique à quatre “coeurs”, et fait usage d’une troisième “autoroute” pour le signal ; en plus des deux habituellement utilisées dans ce type d’application, ils ont aussi utilisé la bande S. Ils ont également soumis le signal à deux nouveaux types d’amplification, avant de subir le processus d’amplification normal (on parle d’amplification de Raman).
Comme mentionné ci-dessous, ce qui rend ces travaux aussi perturbants, c’est leur faisabilité concrète. Le diamètre externe des fibres proposées par l’équipe est strictement identique à celui d’un câble de fibre optique standard. Cela a une implication majeure. Pour passer des réseaux actuels à ce type de technologie, il n’y aurait pas besoin de remplacer toute l’infrastructure ; la nouvelle est déjà compatible avec l’ancienne.
Certes, il existe des technologies capables de grimper bien plus haut. En 2017, la start-up rennaise CAILabs a fourni à un opérateur japonais une technologie qui a permis d’atteindre un débit de… 10 Pbit/s. Soit plusieurs dizaines de fois le débit internet mondial. Mais il s’agit de câbles gigantesques, comportant 19 coeurs et absolument pas adaptés aux réseaux existants. Ce genre de technologie n’est utilisable que dans des cas de niche. Celle du NIICT, par contre, est directement applicable sur le réseau actuel.
Pour les chercheurs, cette particularité très importante « démontre le potentiel des fibres de compatibilité standard dans la mise en place à court terme de réseaux de fibre à très haut débit ». Aussi incroyable que cela puisse paraître, les débits fous auxquels nous avons accès aujourd’hui pourraient sembler ridicules bien plus vite qu’on ne le pense !
Article rédigé par Georges Simmonds pour RT Flash
JDG
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Dans la clinique de Munich qui l’emploie, Franzi exécute impeccablement son travail de nettoyage des sols. Mais en pleine pandémie de coronavirus, ce robot volubile a trouvé une autre fonction : donner le sourire aux patients et au personnel.
« Peux-tu te mettre sur le côté s’il te plaît ? Je dois nettoyer ! », demande la machine en allemand, d’une voix aiguë, à ceux qui se mettent sur son chemin programmé à l’avance. Gare aux réfractaires, Franzi insiste d’une voix plus forte : « Tu dois te pousser ! Je veux vraiment nettoyer ! ». Et, si cela ne suffit pas, elle finit par verser quelques larmes digitales de ses yeux figurés par deux LED qui changent de couleur.
« Avec la pandémie, les visites sont interdites, alors Franzi distrait un peu les patients », décrit Constance Rettler, de la firme Dr. Rettler, qui effectue le ménage dans la clinique Neuperlach et qui a fourni le robot.
Trois fois par jour, celui-ci sillonne le hall d’entrée de l’hôpital, avec, en guise de pieds, une serpillère automatique. Des patients, amusés, le prennent en photo. D’autres "discutent" avec l’appareil d’environ un mètre de haut. "Née" dans une entreprise de Singapour, Franzi s’appelait Ella et parlait anglais avant d’arriver à Munich en début d’année.
Mais son allemand est parfait lorsqu’elle raconte à ses interlocuteurs ne "jamais vouloir grandir" et que le ménage est sa passion. Sur demande, elle peut également chanter une chanson de rap ou quelques classiques allemands.
À ceux qui s’interrogent sur le risque de voir Franzi prendre la place de véritables employés, Constance Rettler assure que ce n’est pas l’objectif. Le robot serait plutôt destiné à "soutenir" ses collègues de chair et d’os, difficiles à recruter, surtout en période de coronavirus. « Avec la pandémie, il faut faire beaucoup de travaux de désinfection dans les hôpitaux », décrit-elle. « Nos employés peuvent se concentrer là-dessus pendant que Franzi s’occupe du sol ».
Le robot a d’ailleurs ses limites : il ne peut par exemple pas aller dans les coins. Et s’il rencontre un obstacle, il reste figé et éclate en sanglots - seul un humain peut venir le secourir. Après une phase de tests de plusieurs semaines, Franzi semble avoir été adoptée par l’hôpital. La firme Rettler a donc décidé de la garder malgré son coût de 40 000 euros.
Article rédigé par Georges Simmonds pour RT Flash
L'Est Républicain
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
« La conversion de l’énergie solaire en électricité des cellules photovoltaïques à pérovskite est incroyablement élevée, environ 25 %, ce qui se rapproche désormais des performances des meilleures cellules photovoltaïques à base de silicium », déclare le professeur László Forró de la Faculté des Sciences de Base de l’EPFL. « Mais leur élément central est le plomb, qui est un poison. Si le panneau solaire tombe en panne, le plomb peut être lessivé dans le sol, entrer dans la chaîne alimentaire et provoquer de graves maladies ».
Le problème est que dans la plupart des pérovskites aux halogénures, le plomb peut se dissoudre dans l’eau. Cette solubilité dans l’eau et dans d’autres solvants représente en fait un grand avantage, car elle rend la fabrication de panneaux solaires à pérovskite plus simple et peu coûteuse – un autre atout en plus de leurs performances. Mais la solubilité du plomb dans l’eau peut devenir un véritable danger pour l’environnement et la santé lorsque le panneau se casse ou est mouillé, par exemple en cas de pluie.
Le plomb doit donc être capturé avant qu’il n’atteigne le sol, et son recyclage doit être possible. Cette question fait l’objet de nombreuses recherches approfondies. Elle constitue en effet le principal obstacle pour les autorités réglementaires dans le cadre de l’approbation de la fabrication de cellules photovoltaïques à pérovskite à grande échelle et à des fins commerciales. Cependant, les tentatives de synthèse de pérovskites non solubles dans l’eau et sans plomb ont donné de mauvais résultats.
Aujourd’hui, le groupe de László Forró a trouvé une solution plus écologique et efficace. Elle consiste à utiliser un sel de phosphate transparent, qui ne bloque pas la lumière solaire et ne nuit donc pas aux performances. Et si le panneau solaire tombe en panne, le sel de phosphate réagit immédiatement avec le plomb en produisant un composé insoluble dans l’eau qui ne peut pas être lessivé dans le sol et qui peut être recyclé.
« Il y a quelques années, nous avons découvert que des cristaux de sel de phosphate transparents et bon marché, comme ceux que l’on trouve dans les engrais du sol, peuvent être incorporés dans diverses parties des dispositifs à base de pérovskite aux halogénures de plomb en sandwich, tels que les photodétecteurs, les LED ou les cellules photovoltaïques », explique Endre Horváth, premier auteur de l’étude. « Ces sels réagissent instantanément avec les ions plomb en présence d’eau, et les précipitent en phosphates de plomb extrêmement peu solubles dans l’eau ».
« La chimie “à sécurité intégrée” empêche le lessivage des ions plomb et peut rendre les dispositifs à pérovskite plus sûrs pour une utilisation dans l’environnement ou à proximité des êtres humains », explique Márton Kollár, le chimiste à l’origine du développement des cristaux de pérovskite. « Nous montrons que cette approche peut servir à fabriquer des photodétecteurs fonctionnels. Et nous proposons à la large communauté de chercheurs et de centres de R&D, qui travaillent sur divers dispositifs comme les cellules photovoltaïques et les diodes électroluminescentes, de la mettre en œuvre dans leurs prototypes respectifs », explique Pavao Andričević, qui a caractérisé les photodétecteurs sensibles. László Forró conclut : « C’est une étude extrêmement importante – je dirais même capitale – pour la commercialisation à grande échelle des cellules photovoltaïques à pérovskite ».
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Des chercheurs du CERN sont parvenus à démontrer que des particules subatomiques (en l’occurrence un charm meson), peuvent osciller entre leur état normal et celui d’antiparticule (une sorte d’image miroir d’elle-même, presque identique, mais dans un état quantique différent) de façon réversible.
Certes, cela fait déjà plus de 60 ans qu’on sait que certaines particules subatomiques (c’est-à-dire encore plus petites que des atomes) sont capables de voyager sous forme de mélange de cette particule et de l’antiparticule correspondante. Mais ici, il s’agit bel et bien des mêmes particules qui changent d’état, et de façon réversible. Mais surtout, ces deux pendants de la même particule ont deux masses différentes !
Pour obtenir ce résultat, les équipes du CERN ont dû redoubler d’efforts. Au sein du fameux LHC (pour Large Hadron Collider), ils ont dû produire les fameux mésons en catapultant des protons l’un contre l’autre à une vitesse faramineuse. Tout sauf simple, vu la taille des objets en question. Il faut ensuite réussir à observer les mésons produits. C’est également difficile, car ils ne voyagent que sur quelques millimètres avant de changer d’état.
Et une fois ce méson repéré, il a fallu réussir à mesurer très précisément la seule donnée dont nous sommes sûrs qu’elle joue sur cette oscillation particule – antiparticule : la différence de masse entre ces deux objets. Là encore, c’est extrêmement difficile : cela implique de mesurer deux objets minuscules, et comme imbriqués (dans un état dit de superposition quantique). Ils ont finalement réussi, en observant la différence entre les mésons qui voyageaient “loin”, et ceux qui s’arrêtaient plus vite.
Les équipes du CERN sont ainsi parvenues à un résultat fracassant : entre la particule et son antiparticule, ils ont observé une différence de… 10^-38 grammes. Soit moins d’un milliardième de milliardième de milliardième de gramme ! Si cette différence peut paraître subtile voire anecdotique, elle revêt en fait une importance considérable ; d’après PhysX, il s’agit d’une porte ouverte à l’étude de certaines des plus grandes questions de la physique, bien au-delà de notre modèle standard.
Ce qu’on appelle le modèle standard de la physique des particules, c’est un modèle qui régit l’infiniment petit. Il tente d’expliquer les interactions entre les différentes particules. C’est un modèle qui fonctionne très bien ; il permet aujourd’hui d’expliquer et d’anticiper une grande variété de phénomènes physiques. Ce modèle standard, c’est un territoire hospitalier et rassurant pour les scientifiques. Mais plus loin, il y a cette zone d’ombre, là où le modèle standard – s’arrête. A partir de là commence un monde d’incertitude, où toute la théorie reste à défricher.
En dehors du modèle standard, toutes les suppositions sont permises et les règles en jeu restent très mal connues. Forcément, c'est cela qui rend la prospection très difficile. Maintenant que les scientifiques ont confirmé cette oscillation entre deux états quantiques, reste à trouver leur origine. Et justement, cette origine pourrait bien reposer en dehors du modèle standard. L’un des grands objectifs à venir sera donc de vérifier si ces changements sont causés par une particule du modèle standard… ou par une particule encore inconnue, qu’il faudra à son tour identifier, puis étudier.
Article rédigé par Georges Simmonds pour RT Flash
CERN
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
En moins de deux siècles, le réchauffement climatique a remodelé profondément le paysage des Alpes suisses en entraînant une fonte massive des glaciers. Un nouvel inventaire exhaustif des lacs glaciaires suisses a révélé que « depuis la fin du petit âge glaciaire vers 1850, près de 1.200 nouveaux lacs ont fait leur apparition dans les anciennes régions glaciaires des Alpes suisses. 1.000 d’entre eux existent toujours aujourd’hui », révèle cette étude réalisée par l’Institut fédéral suisse des sciences et technologies de l’eau (EAWAG), l’Université de Zurich et l’Office fédéral de l’environnement.
Lorsque les champs de glace se retirent, ils laissent souvent derrière eux des dépressions et des barrages naturels ; des bassins qui, en se remplissant d’eau de fonte, forment de nouveaux lacs. « Nous avons été surpris, d’une part par leur nombre impressionnant et, d’autre part, par leur formation beaucoup plus rapide », explique Daniel Odermatt, responsable du groupe de télédétection à l’Eawag, cité dans un communiqué présentant ses travaux.
« Au début du projet, nous avions tablé sur quelques centaines de lacs glaciaires », souligne le chercheur, ajoutant que « 180 se sont ajoutés rien qu’au cours de la dernière décennie ». Daniel Odermatt souligne que cet inventaire constitue « un excellent point de départ pour observer et analyser l’influence du changement climatique sur les lacs glaciaires ».
Comme dans le reste des Alpes, les glaciers en Suisse fondent. La seule année dernière, ils ont perdu 2 % de leur volume, selon l’étude annuelle publiée par l’Académie suisse des sciences. Et même si l’Accord de Paris pour limiter le réchauffement de la planète en dessous de 2 degrés centigrades devait être couronné de succès, une étude de la prestigieuse école polytechnique fédérale de Zurich réalisée en 2019 estimait que deux tiers des glaciers alpins se seront évaporés. Selon les chercheurs : entre 2006 et 2016, la rapidité de formation de nouveaux lacs glaciaires a augmenté de manière significative. En moyenne, 18 nouveaux lacs se sont formés chaque année et la zone aquatique a augmenté annuellement de plus de 400 mètres carrés. En 2016, le plus grand lac mesurait 40 hectares, même si pour l’essentiel, les plans d’eau étaient inférieurs à un hectare.
L’inventaire complet a pu être réalisé grâce à des données accumulées depuis le milieu du XIXe siècle. « Lorsque la glace a commencé à fondre à la fin du petit âge glaciaire, cela a éveillé la curiosité des naturalistes de l’époque », explique Nico Mölg, un postdoctorant qui a travaillé avec Daniel Odermatt. Les chercheurs ont pu s’appuyer sur les cartes Dufour réalisées entre 1840 et 1870, puis sur des photographies aériennes réalisées en 1946 et aux données de Swisstopo, l’Office fédéral de topographie.
Article rédigé par Georges Simmonds pour RT Flash
Eawag
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
L'hôpital Lyon sud vient de se doter d'une IRM nouvelle génération qui permet une imagerie plus précise. Un pôle de recherche a également été créé pour faire avancer la recherche dans ce domaine. Cet appareil, un d'IRM Linac Elekta Unity nouvelle génération (1.5 tesla) offre à l'hôpital Lyon sud de nouvelles perspectives de traitement très encourageantes contre le cancer.
Cet équipement d'imagerie couplé à un accélérateur de particules permet d'envisager des traitements jusqu'alors impossibles en localisant très précisément les tumeurs et en suivant les effets du traitement en temps réel. Il « combine un champs magnétique avec un faisceau d'irradiation, un challenge en termes de physique », précise le Professeur Olivier Chapet, oncologue thérapeute aux HCL.
Dans ce nouveau protocole, les soignants ont accès à une imagerie de haute définition et en temps réel pendant le traitement. Lors de chaque séance, l'organe à irradier est visible et la zone d'irradiation adaptée.
Pour un cancer de la prostate par exemple, lors de la séance, les soins sont millimétrés en fonction de la position de la vessie et du rectum, voire de la prostate elle-même tout au long de la séance. La tumeur est également sous surveillance et ses "réactions" sont scrutées. Si sa taille diminue, un réajustement des rayons est immédiatement effectué pour limiter l'exposition des tissus périphériques ce qui limite les effets secondaires. Les cellules saines sont épargnées.
La qualité de l'imagerie permet également de localiser très précisément les tumeurs ce qui est une avancée dans les cas de cancer du foie, des reins et du pancréas. « Cette technologie est absolument magnifique avec cette possibilité d'épargner les cellules qui sont saines par rapport aux cellules cancéreuses », souligne le Professeur Olivier Chapet.
Il existe une vingtaine de machines dans le monde. Le seul exemplaire en France est celui de Lyon Sud. Les HCL ont lancé un centre de recherche clinique et de développement technologique dédié à la radiothérapie guidée par IRM en collaboration avec l’Université Claude Bernard de Lyon, un consortium de laboratoires et des industriels.
Article rédigé par Georges Simmonds pour RT Flash
CHU-Lyon
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Californie San Francisco (UCSF) ont développé une thérapie génique « dirigée vers le cerveau », visant à améliorer « la fonction motrice et le bien-être général d’enfants atteints d’une maladie génétique rare » : le déficit en décarboxylase des acides aminés aromatiques (AADC).
Les enfants souffrant d’AADC sont « incapables de manger, de parler ou de marcher ». Leurs « voies neuronales » sont « fonctionnelles », mais ils ne produisent pas l’enzyme impliquée dans la synthèse des neurotransmetteurs, « en particulier de la dopamine, qui est une molécule essentielle permettant aux cellules du cerveau de communiquer ». On recense 135 personnes atteintes d’AADC dans le monde.
Les chercheurs de l’UCSF ont « mis au point une méthode permettant de délivrer une copie saine du gène responsable de l’AADC à des zones spécifiques du cerveau afin que les cellules fabriquent l’enzyme manquante ». En utilisant l’imagerie par résonance magnétique, ils ont guidé, « en temps réel », une aiguille qui délivre un « virus inoffensif », un adénovirus, « portant des copies saines du gène AADC, profondément dans le mésencéphale ».
Sept patients âgés de quatre à neuf ans ont été traités. Et « tous avaient retrouvé la capacité de produire de la dopamine », accompagnée d’une diminution de leurs symptômes. Un an après le début du traitement, « quatre enfants pouvaient s’asseoir de manière autonome, deux pouvaient marcher avec de l’aide et un pouvait parler avec un vocabulaire d’environ 50 mots ».
Un enfant ayant participé à l’essai clinique est « subitement mort » sept mois après le traitement. « Aucun lien n’est établi entre ce décès et le traitement administré » à ce stade. Son décès aurait été causé par « une autre maladie ». Selon le Docteur Toni Pearson, neurologue pédiatrique à la faculté de médecine de l’Université Washington à Saint-Louis, coauteur de l’étude, ces travaux ont permis « de voir qu’il n’y a pas de période critique au cours de laquelle le développement doit avoir lieu », au risque de voir disparaître cette capacité si ce n’est pas le cas. « Nous continuons à penser que plus le traitement sera précoce, plus les bénéfices potentiels seront importants », précise-t-elle. Mais « nous sommes en train de découvrir quelle est la fenêtre de plasticité qui permet de progresser ».
Article rédigé par Georges Simmonds pour RT Flash
Gènéthique
|
|
|
|
|
|
|
|
Des chercheurs allemands de l'Université Christian-Albrechts de Kiel ont montré, grâce à une vaste étude épidémiologique portant sur plus de 200.000 participants, une association peu documentée entre l'insuffisance cardiaque et un risque accru de cancer. Ces résultats suggèrent une surveillance cardiaque accrue des patients atteints de cancer qui ont reçu des médicaments endommageant le cœur et, à l’inverse, des patients atteints d'insuffisance cardiaque pour l’incidence du cancer.
Si l’auteur principal, le Docteur Mark Luedde, de l'Université Christian-Albrechts rappelle que l’étude révèle une association et ne démontre pas une relation de cause à effet, les implications, en termes de surveillance, valent, en regard de la prévalence élevée de l'insuffisance cardiaque soit environ 65 millions de personnes dans le monde. Par ailleurs, il est bien connu que certains patients atteints de cancer développent une insuffisance cardiaque à la suite d'un traitement contre le cancer.
Il s’agit ici d’une large cohorte sur l'association entre l'insuffisance cardiaque et le développement de nouveaux cancers réunissant les données de 100.124 patients atteints d'insuffisance cardiaque et 100.124 participants témoins exempts d’insuffisance cardiaque, âgés en moyenne de 72,6 ans et à 54 % des femmes, suivis dans 1.274 cabinets médicaux en Allemagne. Les participants insuffisants cardiaques ont été appariés individuellement en fonction du sexe, de l'âge, de l'obésité, du diabète et de la fréquence de consultation avec les témoins.
Aucun participant n'avait de cancer à l’inclusion. Des modèles statistiques ont été utilisés pour examiner l'association entre l'insuffisance cardiaque et l'incidence du cancer sur 10 ans. L’analyse révèle une incidence du cancer significativement plus élevée chez les patients atteints d'insuffisance cardiaque (25,7 %) par rapport aux témoins (16,2 %) ; chez les femmes, l'incidence du cancer atteint 28,6 % en cas d'insuffisance cardiaque vs 18,8 % ; chez les hommes, 23,2 % vs 13,8 % ; l'insuffisance cardiaque est significativement associée à l'incidence du cancer, avec une augmentation de 76 % du risque.
« Il pourrait y avoir une relation causale entre l'insuffisance cardiaque et ce taux accru de cancer », écrivent les auteurs dans leur communiqué. La relation serait « biologiquement plausible, car il existe des preuves expérimentales que les facteurs sécrétés par un cœur défaillant peuvent stimuler la croissance tumorale ». Ensuite, il est clair que l'insuffisance cardiaque et le cancer partagent des facteurs de risque communs tels que l'obésité et le diabète.
Article rédigé par Georges Simmonds pour RT Flash
ESC
|
|
|
|
|
|
|
|
Pour détecter un cancer, les examens reposent principalement sur de l’imagerie médicale, à l’instar de la mammographie ou de la coloscopie. Depuis peu, des tests ont aussi été mis au point pour détecter le cancer via des analyses de sang. Mais des chercheurs du Massachusetts Institute of Technology (MIT) viennent de créer encore un nouvel outil de dépistage qui va beaucoup plus loin : il permet aussi de localiser l'emplacement de la tumeur ou de métastases, via un simple test urinaire, grâce à un agent d’imagerie ingéré en amont par les personnes testées. Ce dispositif pourrait donc être utilisé pour détecter le cancer n'importe où dans le corps.
« Il s'agit d'un capteur très large destiné à répondre à la fois aux tumeurs primaires et à leurs métastases », explique Sangeeta Bhatia, l’une des autrices de l'étude. « Il peut déclencher un signal urinaire et nous permettre également de visualiser où se trouvent les tumeurs ». Les métastases sont formées par les cellules cancéreuses issues de la tumeur primaire. Ainsi, on parle de cancer métastatique quand le cancer initialement développé par un individu se propage dans une autre partie de son corps.
Par exemple, s’il y a des métastases du cancer du côlon sur le foie, il s’agit d’un cancer du côlon métastatique et non pas d’un cancer du foie. C’est justement sur ce cancer du côlon que se sont penchés les auteurs. Ils ont montré que leur nanoparticule de diagnostic pouvait être utilisée pour surveiller la progression du cancer du côlon, y compris la propagation des tumeurs métastatiques aux poumons et au foie.
Le principe de ce test est le suivant : le test urinaire permet de dépister les cancers grâce à des particules qui, lorsqu'elles rencontrent une tumeur, divisent les peptides, des acides aminés à l’origine des protéines. Ces peptides sont ensuite visibles dans l'urine. Ainsi, si le résultat du test en contient, la personne est atteinte d’un cancer. Mais, en plus de ce résultat, les chercheurs ont mis au point un agent d’imagerie capable d’indiquer l'emplacement exact de la tumeur et de ses éventuelles métastases, notamment lorsqu’elles se sont propagées dans d’autres organes que celui d’origine.
Autrement dit, le patient ingère cet agent d’imagerie en amont de son test urinaire et le résultat indiquera où sont localisées les tumeurs et les métastases dépistées. Lors de leurs essais cliniques, les chercheurs ont testé ce dispositif sur des souris atteintes de cancers du côlon métastatique. Elles ont reçu un traitement de chimiothérapie et, grâce à l’agent d’imagerie et au test urinaire, les scientifiques ont pu suivre la réaction des tumeurs au traitement et l’évolution du cancer. Enfin, dernier avantage : la technologie utilisée par ce test permet de dépister des tumeurs et des métastases bien plus petites que les autres techniques d’imagerie médicale couramment utilisées.
Les chercheurs envisagent donc que ce test permette, à terme, d’évaluer l’efficacité des traitements de chimiothérapie en analysant l’évolution au fur et à mesure, de façon plus précise et moins invasive. De plus, il pourrait également être un très bon outil pour surveiller les récidives éventuelles de cancers. Enfin, ils espèrent également qu’il puisse être utilisé pour le dépistage classique de certains cancers.
A terme, ces chercheurs sont persuadés que, d'ici quelques années, les patients à risque pourront faire chaque année un simple test d'urine, permettant de détecter n'importe quel cancer, dans le cadre d'un bilan de santé général. Seuls les patients dont le test est positif seront alors soumis à un examen par imagerie, qui viendra affiner et compléter le diagnostic…
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
Des chercheurs de l’Inserm, du CNRS, de l’Université Paris-Est Créteil, de l’hôpital Henri-Mondor AP-HP, et de l’Institut Pasteur ont mené des travaux sur la capacité de la mémoire immunitaire, générée après vaccination ARNm, à reconnaître et neutraliser les variants du SARS-CoV-2.
Ces travaux, coordonnés par le Professeur Matthieu Mahévas, le Docteur Claude-Agnès Reynaud, le Professeur Jean-Claude Weill, le Docteur Pascal Chappert, le Docteur Rey et le Docteur Bruhns, montrent que des personnes vaccinées avec un vaccin à ARN messager contre le SARS-CoV-2 développent des défenses contre les variants Beta et Delta. Leur système immunitaire produit en effet des cellules à mémoire capables de reconnaître et neutraliser les variants préoccupants. Les résultats de cette étude ont fait l’objet d’une publication le 20 septembre 2021 au sein de la revue Immunity.
La mémoire immunitaire est un mécanisme qui protège les individus contre la réinfection. Cette stratégie de défense de l’organisme, qui est à la base du succès des vaccins, comprend la production d’anticorps protecteurs dans le sang (détectés par sérologie) ainsi que la formation de cellules à mémoire, capables de se réactiver rapidement en cellules productrices d’anticorps lors d’une nouvelle infection.
Cette étude démontre que les patients infectés lors de la première vague maintiennent une réponse mémoire stable jusqu’à 12 mois et développent, après une dose de vaccin, une excellente mémoire sérologique et cellulaire capable de reconnaître et de neutraliser les variants Beta et Delta du SARS-Cov-2.
Chez les patients « naïfs » de toute infection, c’est-à-dire n’ayant jamais été infectés par le virus, la qualité de la réponse sérologique est initialement moins efficace vis-à-vis de ces variants. Néanmoins le pool de cellules à mémoire généré après la vaccination s’améliore au cours du temps et surtout contient des cellules capables de reconnaître et de neutraliser les variants actuels du SARS-CoV-2. Ces résultats ont été obtenus en étudiant la maturation de cellules B à mémoire de 47 patients ayant contracté la Covid-19 lors de la première vague et de 25 soignants « naïfs » n’ayant pas été infectés par le virus.
Ceci suggère très fortement que les cellules à mémoire des personnes vaccinées avec deux doses de vaccin (ou une seule pour ceux ayant préalablement contracté la COVID-19) protègent des formes graves dues aux variants du Covid-19, en soutien des anticorps protecteurs présents dans le sang. Ce résultat très encourageant suggère aussi qu’en cas de forte circulation virale due aux variants du SARS-CoV-2, une troisième dose de vaccin, en utilisant les vaccins actuellement disponibles contenant la Spike originale de Wuhan, devrait permettre de générer rapidement des anticorps neutralisant les variants Beta et Delta présents actuellement, et de réduire la circulation virale.
Article rédigé par Georges Simmonds pour RT Flash
Université de Paris
|
|
|
|
|
|
|
|
Une étude de l'Université de Miami présentée au Congrès 2021 de la Société européenne de microbiologie clinique et des maladies infectieuses a montré que le vaccin contre la grippe protège contre certains des effets sévères du COVID-19, notamment la septicémie, la thrombose veineuse profonde (TVP) et l’accident vasculaire cérébral (AVC), et donc indirectement contre la nécessité de soins intensifs.
Ainsi, le vaccin contre la grippe pourrait offrir une protection « vitale » contre le COVID-19, conclut cette analyse des données de patients du monde entier : ces personnes, vaccinées contre la grippe, en cas de COVID-19, sont moins susceptibles de se rendre aux urgences et d'être admises en unité de soins intensifs (USI). Vacciner en population générale contre le COVID-19 est un défi majeur et si la production et la distribution de vaccins augmentent quotidiennement, les vaccins manquent toujours dans certains pays et cette efficacité, même partielle, du vaccin antigrippal pourrait contribuer à réduire les effets les plus dramatiques de la pandémie.
L’auteur principal, le Docteur Susan Taghioff, de la Miller School of Medicine de l'Université de Miami et son équipe ont effectué une analyse rétrospective des données sur des dizaines de milliers de patients dans plusieurs pays (États-Unis, Royaume-Uni, Allemagne, Italie, Israël et Singapour), passé au crible leurs dossiers de santé électroniques et sélectionné 2 groupes de 37.377 patients. Ces 2 groupes ont été appariés pour les facteurs qui pourraient affecter leur risque de COVID-19 sévère, notamment l'âge, le sexe, l'origine ethnique, le tabagisme et les problèmes de santé tels que le diabète, l'obésité et la maladie pulmonaire obstructive chronique (MPOC).
Le premier groupe a reçu le vaccin contre la grippe entre 2 semaines et 6 mois avant de recevoir un diagnostic de COVID-19 ; le deuxième groupe était également constitué de patients ayant développé le COVID-19 mais non vaccinés contre la grippe. L'incidence de 15 effets indésirables (septicémie, AVC, TVP, embolie pulmonaire, insuffisance respiratoire aiguë, syndrome de détresse respiratoire aiguë, arthralgie, insuffisance rénale, anorexie, crise cardiaque, pneumonie, visite aux Urgences, hospitalisation, admission en soins intensifs et décès) dans les 120 jours suivant le test positif pour COVID-19 a ensuite été comparée entre les 2 groupes.
L'analyse constate que les patients non vaccinés contre la grippe ont un risque accru de 20 % d’être pris en charge en soins intensifs, un risque accru de 58 % d’avoir à se rendre aux urgences, un risque accru de 45 % de septicémie, et un risque accru de 58 % d’AVC. En revanche, le vaccin contre la grippe ne semble pas réduire le risque de décès.
On ignore encore par quels mécanismes le vaccin antigrippal offre une protection contre le COVID-19, mais la plupart des théories expliquent que le vaccin antigrippal renforce le système immunitaire inné. Les chercheurs suggèrent que le vaccin contre la grippe protège contre plusieurs effets graves du COVID-19.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
Pour traiter et réduire une fracture, les chirurgiens optent pour des plaques métalliques qui permettent de maintenir les différentes parties de l’os afin de le consolider et, donc, de le réparer. Des chercheurs viennent de trouver une alternative à cette méthode grâce à un nouveau matériau biocompatible, c’est-à-dire toléré par l’organisme. Celui-ci serait aussi résistant que les composites dentaires, s’adapterait mieux aux fractures, tout en étant moins toxique pour l’organisme.
La composition de ce nouveau matériau est basée sur un polymère - c’est-à-dire une grosse molécule - biocompatible. Les scientifiques envisagent son utilisation pour les fractures les plus difficiles à traiter comme la clavicule et les côtes, les autres pouvant être prises en charge avec un plâtre. L’avantage de ce matériau est de s’adapter à la forme de l’os, ce qui permet au chirurgien de mieux personnaliser le traitement.
Ainsi, la prise en charge des fractures est aussi plus confortable pour le patient qui peut mieux bouger le membre touché. En effet, les plaques métalliques habituellement utilisées ne sont pas personnalisables car elles ont des formes prédéfinies. Cela entraîne souvent des complications : selon les chercheurs, 64 % des fractures des doigts traitées avec des plaques métalliques entraînent des complications affectant la mobilité du membre.
Pour remédier à ce problème, les scientifiques ont mis au point le système AdhFix, qui utilise ce nouveau matériau. Le procédé est le suivant : les chirurgiens placent d’abord les vis et mettent ensuite le nouveau matériau - encore mou - sur la zone à réparer. Ils ajustent ensuite la forme à l’os et de la fracture, en englobant les vis. Une fois la position validée, le matériau est solidifié et reste en permanence sur le membre, tout comme le feraient les plaques métalliques.
Pour valider leur méthode, les chercheurs ont effectué des tests sur des mains de cadavres fracturées. Résultat : le matériau utilisé a résisté à un large panel de mouvements et de flexions des doigts, avec des intensités de forces variables. Et, lorsqu'ils ont testé cette méthode sur les fémurs fracturés de rats de laboratoire vivants, ceux-ci ont eu une meilleure guérison osseuse sans aucun effet indésirable.
« Aucune fracture ne se ressemble, c'est l'un des avantages absolus du matériau », souligne Michael Malkoch, l’un des auteurs. « Le chirurgien peut adapter la plaque de fixation en fonction de la forme osseuse du patient et de sa fracture. Et l'hôpital n'aura pas à stocker de plaques métalliques ».
Article rédigé par Georges Simmonds pour RT Flash
AFM
|
|
|
|
|
|
|
|
Une équipe de recherche de l’Institut de chimie des milieux et matériaux de Poitiers (IC2MP, Université de Poitiers/CNRS) a mis au point une nouvelle technique pour guider les lymphocytes T vers les cellules tumorales et les détruire. Les cellules tumorales ne sont pas reconnues par les cellules du système immunitaire telles que les lymphocytes T, qui sont potentiellement capables de détruire les tumeurs.
Ainsi, notre système immunitaire ne lutte pas de façon efficace contre l’apparition des cancers. Afin de faciliter l’étude des interactions intercellulaires, les chercheurs de l’IC2MP ont développé une nouvelle stratégie basée sur l’utilisation de marqueurs artificiels pouvant être introduits à la surface des cellules par une réaction bioorthogonale.
L’idée est de venir « greffer » ces marqueurs : un sur les cellules tumorales et un autre sur les lymphocytes T, et les faire interagir entre eux. Les cellules fonctionnalisées par des marqueurs complémentaires peuvent alors se reconnaître grâce à une « chimie click non covalente ». Cette interaction a conduit à l’activation des cellules NK (Natural Killer) et à la destruction des cellules tumorales, ouvrant ainsi la voie vers le développement d’une nouvelle stratégie thérapeutique.
Il s’agit d’incorporer des récepteurs artificiels complémentaires à la surface de cellules qui n’interagissent pas naturellement afin qu’elles se reconnaissent. Ces adhésions intercellulaires non-naturelles déclenchent des processus biologiques inédits. Cette approche met en lumière le potentiel apporté par la maîtrise des interactions intercellulaires dans le cadre du développement de nouvelles applications biomédicales.
Les réactions bioorthogonales fonctionnent en lieu biologique et est inerte vis-à-vis des molécules qui constituent les organismes vivants. Ces réactions sont développées pour comprendre et manipuler les systèmes biologiques. Dans le cadre des interactions cellule-cellule artificielles, deux catégories de réactions bioorthogonales sont utilisées : une réaction de « chimie click covalente » pour fixer les récepteurs artificiels à la surface des cellules et une réaction de « chimie click non covalente » pour que les cellules se reconnaissent.
Article rédigé par Georges Simmonds pour RT Flash
Université de Poitiers
|
|
|
|
|
|
|
|
Selon une étude sino-américaine, il existe un lien avéré entre la perte des dents et la démence. Pour parvenir à ces conclusions, les chercheurs ont synthétisé les résultats de 14 essais incluant plus de 34 000 adultes. Au sein de cette cohorte, plus de 4 500 sujets souffraient d’une fonction cognitive altérée.
Bilan : comparées à celles ayant toutes leurs dents, les personnes ayant perdu au moins une dent avaient 1,48 fois plus de risque de présenter une altération de leur fonction cognitive, et 1,28 fois plus de risque de développer une forme de démence.
Par ailleurs, le risque de dégénérescence neurologique était corrélé au nombre de dents perdues. Ainsi, à chaque dent supplémentaire tombée, la probabilité augmentait de 1,4 % pour la diminution de la fonction cognitive. Le risque montait de 1,1 % concernant la démence. « Nos résultats soulignent l’importance de maintenir une bonne hygiène bucco-dentaire notamment afin de préserver la fonction cognitive », concluent les auteurs.
Article rédigé par Georges Simmonds pour RT Flash
JAMDA
|
|
|
|
|
|
|
|
Depuis plusieurs années, on prête un rôle déterminant au microbiote intestinal pour notre santé. De nombreux travaux scientifiques ont souligné qu’il existe un lien entre la diversité des souches de bactéries qui y sont présentes et certains paramètres de santé, notamment cardiovasculaire et métabolique.
Les scientifiques se sont intéressés à l’hippurate, un métabolite produit par les bactéries intestinales que l’on retrouve dans les urines. Les scientifiques ont combiné deux méthodes, le séquençage ADN (analyse du profil génétique) des bactéries du microbiote intestinal et le profilage métabolomique urinaire (analyse de petits métabolites présents dans les urines), chez 271 personnes d’une cohorte danoise (l’étude MetaHIT).
A partir des données obtenues, les scientifiques montrent que des niveaux élevés d’hippurate dans les urines sont associés à une plus grande diversité de la flore intestinale et une augmentation de la richesse en gènes du microbiote, qui sont deux paramètres protecteurs du risque cardiométabolique (risque de développer des maladies cardiovasculaires et/ou du diabète).
Les chercheurs disposaient par ailleurs d’informations relatives aux habitudes alimentaires des participants, ainsi qu’à leur indice de masse corporelle (IMC). Ils ont constaté que chez les personnes obèses ayant une alimentation riche en graisses saturées, et un risque de développer des problèmes cardiovasculaires et métaboliques, des niveaux élevés d’hippurate avaient des effets bénéfiques sur le poids et sur la santé métabolique.
Ces résultats ont été complétés par une étude de validation chez des souris obèses, nourries avec un régime gras. Dans ces modèles animaux, l’administration d’hippurate améliorait l’équilibre glycémique et stimulait la sécrétion d’insuline. « Ces travaux confirment l’importance de l’architecture et de la fonction de la flore intestinale en santé humaine, en démontrant le rôle bénéfique d’un métabolite produit par des bactéries intestinales, comme nous l’avions déjà démontré précédemment avec un autre métabolite, le cresol », souligne Dominique Gauguier, chercheur Inserm au laboratoire T3S (Inserm/Université de Paris).
En effet, on pourrait par exemple envisager de modifier le microbiote avec des systèmes probiotiques produisant en plus grande quantité les bactéries intestinales qui synthétisent les précurseurs de l’hippurate. Cela permettrait ensuite d’augmenter les niveaux d’hippurate avec des effets protecteurs sur le risque cardiométabolique.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|