|
|
|
|
|
NUMERO 1175 |
|
|
|
|
|
|
|
Edition du 14 Octobre 2022
|
|
|
|
|
Edito
Avec l’hydrogène comme carburant, le moteur à combustion interne a encore de beaux jours devant lui…
AVANT PROPOS : Campagne de dons pour permettre à RT Flash de continuer à paraître en 2023 :
Atteindre notre objectif minimum de 15.000 euros sera difficile cette année.
Nous sommes à la fin de la deuxième semaine de campagne et le montant global reçu à ce jour s’élève à 2723 €. Comme il faut 1360 euros par mois pour permettre à RT Flash d'être diffusé gratuitement et sans aucune publicité, l'avenir de notre Lettre électronique hebdomadaire est assurée, à ce jour, jusqu'à fin Février 2023.
Pour assurer la mise en ligne de RT Flash jusqu'à fin 2023, il faut que la collecte de cette année nous apporte encore un peu plus de 12.000 euros.Si nous ne parvenions pas à accélérer notre campagne, il nous faudrait encore 18 semaines pour atteindre notre objectif minimum de 15.000 €. Or, d'ici la fin de l'année, il ne reste plus que 10 semaines utiles.
En raison de la réduction fiscale appliquée sur chaque don, il faut obligatoirement que notre campagne de dons s'arrête avant le 31 Décembre.
Je vous demande, chers lecteurs de RT Flash, d’accélérer un peu le rythme de vos dons, pour que nous puissions atteindre, à temps, notre objectif et je vous en remercie d'avance.
Je vous fais confiance.
Bien Cordialement
René Trégouët
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
Rédacteur en Chef de RT Flash
Si vous voulez aider RT Flash, Lettre d'informations scientifiques et technologiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant : Faites un DON pour sauver RT Flash, vous bénéficierez d’une réduction fiscale de 66 %
EDITORIAL :
Avec l’hydrogène comme carburant, le moteur à combustion interne a encore de beaux jours devant lui…
On le sait, le 8 juin dernier, le Parlement européen a pris une décision historique en votant à une large majorité en faveur de la fin de la vente de voitures à moteur thermique en Europe dès le 1er janvier 2035. Cette l'interdiction concerne non seulement les moteurs essence et diesel, elle concerne aussi les moteurs hybrides, ainsi que tous les biocarburants. Cette mesure radicale s’inscrit dans le cadre du nouvel objectif climatique pris le 21 avril dernier par les 27 états-membres de l’UE : réduire d’au moins 55 % les émissions de gaz à effet de serre au sein de l’Union européenne d'ici 2030, par rapport au niveau de 1990.
Les vingt-sept Etats membres de l’Union européenne (UE) ont approuvé le 29 juin dernier le projet de la Commission de réduire à zéro les émissions de CO2 des voitures neuves en Europe à partir de 2035. Cette proposition signifiera l’arrêt des ventes de véhicules fonctionnant à l’essence et au diesel dans l’UE à partir de 2035.
De manière cohérente, le Parlement européen a adopté le 14 septembre dernier, dans le cadre de la révision de la directive relative aux énergies renouvelables (RED), un nouvel objectif visant, d’une part, à porter à 45 % la part des énergies renouvelables dans la consommation globale d’énergie de l’UE d’ici à 2030 et, d’autre part, de réduire de 42,5% la consommation d’énergie primaire par rapport aux projections de 2007, ce qui correspond à une diminution considérable de 960 millions de tonnes équivalent pétrole par an, de la consommation d’énergie de l’UE, soit sept fois la consommation annuelle d’énergie de la France (136 Mteps en 2020)….
Mais contrairement à ce que beaucoup de médias ont affirmé, la nouvelle directive adoptée par le Parlement européen ne prévoit pas, « la fin des moteurs thermiques en Europe ». En effet, un amendement, adopté par les députés européens, prévoit que « Les véhicules à émission nulle qui seront seuls autorisés à être vendus dans l’UE en 2035 comprennent les véhicules électriques à batterie, les véhicules à pile combustible et les véhicules fonctionnant à l’hydrogène ». Ce point, passé largement inaperçu, est capital, car il signifie que le moteur thermique, ou moteur à combustion interne, pour être plus précis, restera autorisé en Europe après 2035, à condition toutefois, qu’il n’émette plus de CO2, gaz qui est à l’origine, pour les deux tiers, de l’effet de serre et du réchauffement climatique en cours.
Prenant acte de ce nouveau cadre réglementaire et industriel, les constructeurs automobiles, mais aussi les géants des transports routiers, ferroviaires et aériens, ont décidé, sans renoncer pour autant à améliorer les performances des piles à hydrogène, de travailler sur un concept prometteur : adapter à l’hydrogène les moteurs thermiques actuels, très sophistiqués et bénéficiant d’un siècle et demi de progrès techniques. Notons que l’idée de départ est ancienne car il y a plus de quarante ans, un professeur de mécanique visionnaire, Luc Perrier, avait converti le moteur de sa Simca 1000 essence, de manière à ce qu’il puisse tourner à l’hydrogène vert, ce dernier étant produit à partir de panneaux solaires et d’un électrolyseur installés dans le jardin chez cet inventeur en avance sur son temps.
Sur le plan technique, un moteur thermique classique est tout à fait transformable, de manière à pouvoir utiliser comme carburant de l’hydrogène. La principale modification concerne le système d’injection, qui doit être plus raffiné pour pouvoir gérer de l’hydrogène à l’état gazeux. Mais comme le souligne Christian Nellen, responsable du département Moteurs à combustion à la Haute école d’ingénierie et d’architecture de Fribourg, en Suisse, « La transformation d’un moteur thermique classique à essence ou diesel, en un moteur à hydrogène ne suppose aucune innovation de rupture et est bien maîtrisé sur le plan industriel ».
Il y a plus de quinze ans, BMW avait produit à une centaine d’exemplaires sa berline Hydrogen 7, équipée d’un moteur de 6 litres et 12 cylindres, qui pouvait rouler aussi bien à l’essence qu’à l’hydrogène. Mais, à l’époque, la technologie n’était pas mûre et le moteur de cette berline développait un couple beaucoup trop faible en mode hydrogène, pour une raison simple : la combustion de l’hydrogène exige deux fois et demi plus d’oxygène, à masse égale, que celle de l’essence, et les moteurs atmosphériques utilisés à l’époque étaient incapables de fournir suffisamment d’oxygène pour entretenir une combustion suffisante.
Mais deux innovations techniques décisives sont venues lever cet obstacle. En premier lieu, l’arrivée des turbocompresseurs, qui permettent de pomper de grandes quantités d’air. En second lieu, l’injection directe du carburant, qui permet à la fois d’obtenir des mélanges air/hydrogène parfaitement maîtrisés et d’atteindre des concentrations d’oxyde d’azote à l’échappement cent fois moins importantes que celles d’un moteur diesel.
Actuellement, l’IFP Énergies nouvelles (Ifpen) teste un moteur à hydrogène conçu par Volvo et destiné aux poids lourds. Il faut en effet savoir que, si les batteries au lithium sont plus performantes et moins coûteuses pour les véhicules électriques légers, il n’en va pas de même pour le secteur de la mobilité « lourde » (poids-lourds, bateaux, avions, trains), qui représente plus du tiers des émissions totales de CO2 du secteur des transports. Comme l’a montré une étude instructive de l’Ifpen sortie en juin dernier (Voir IFP), le moteur à hydrogène surclasse à la fois la pile à combustible et le moteur diesel, en termes de coût, sur l’ensemble du cycle de vie, pour les poids lourds et les bus. L’étude souligne que, contrairement aux piles à combustible, complexes, fragiles (et dont le coût reste grevé par le platine), les moteurs à hydrogène ont l’avantage d’être plus robustes et d’avoir une durée de vie plus longue. Ils sont par ailleurs bien moins sensibles à la qualité de l’hydrogène et à l’environnement extérieur que les PAC.
Ce potentiel, longtemps sous-estimé du moteur thermique à hydrogène, est confirmé par deux géants industriels, le motoriste américain Cummins et le Japonais Kawasaki Heavy Industries, qui sont tous deux persuadés que le moteur à hydrogène, qui offre une charge utile, une autonomie, et des performances au moins égales avec les véhicules essence ou diesel, va s’imposer dans l’ensemble de la mobilité lourde. Les récents tests effectués par Kawasaki Heavy Industries confirment d’ailleurs que les moteurs à combustion interne fonctionnant à l’hydrogène sont supérieurs aux piles à combustible en termes de fiabilité, durabilité, et performances. Fin 2021, les principaux acteurs des secteurs de l’automobile et de la moto Yamaha, dont Mazda, Toyota, Subaru et Kawasaki, ont également annoncé une coopération renforcée dans ce domaine stratégique des moteurs à combustion interne utilisant de l’hydrogène.
En France, L’Ifpen coopère avec Renault Trucks pour développer d’ici 2023 un poids lourd à motorisation hydrogène. Le constructeur américain Ford poursuit également ses recherches sur le moteur à combustion interne alimenté par de l'hydrogène. Ford a orienté ses recherches sur le fonctionnement en mélange pauvre (composé d’une grande quantité d’air et d’une petite quantité d’hydrogène), une solution technologique qui permet de réduire la consommation, mais nécessite une injection et une gestion électronique très sophistiquée (Voir Muscle Cars & Trucks). Si l’on en croit les revues spécialisées, Ford serait parvenu à maîtriser une combustion qui mélange un volume d'hydrogène avec 68 volumes d'air ! Cette prouesse aurait été obtenue en réduisant la température de combustion à l’aide d’une admission en 2 étapes, la première au cours de laquelle la soupape d'admission se lève et se referme une première fois et la seconde qui reproduit une ouverture et une fermeture dans le même cycle, avant que ne s’ouvre la soupape d'échappement…
En France, l'entreprise alésienne New Times développe une solution technologique de rétrofit, qui vise à transformer un moteur thermique deux temps en moteur 100 % hydrogène zéro émission. « Il faut arrêter de vouloir mettre à la ‘poubelle' tous les véhicules à moteur thermique. Il y a plus d'un milliard de véhicules thermiques sur terre. Imaginez s'il fallait tous les jeter et en reconstruire de nouveaux ! », constate Didier Lopez, qui ajoute, « L'idée n'est pas d'être en concurrence avec les voitures électriques ou celles à pile à combustible. Notre technologie permet de ne modifier qu'une partie du moteur des véhicules, sans pour autant devoir en changer totalement ».
Outre-Atlantique, la firme Westport Fuel Systems, basée à Vancouver a mis au point un nouveau système de carburant capable de bruler de l'hydrogène dans les moteurs de poids lourds à combustion interne. Ce dispositif s’adapte sur le système HDI et permet ainsi de convertir à l’hydrogène les moteurs thermiques existants. Ce système, baptisé H2 HPDI, offre une puissance, un couple et un rendement, qui dépassent largement ceux du moteur diesel de base car la combustion conserve le taux de compression élevé du moteur diesel classique, l’hydrogène étant injecté à la fin de la course de compression, en tout début de combustion. Un véhicule de démonstration opérationnel vient d’être présenté lors de l'ACT Expo 2022 à Long Beach, (Californie).
En février dernier, le fabricant de moteurs d’avion Pratt & Whitney, basé à Longueuil, près de Montréal, a été sélectionné par le Département américain de l’énergie (DoE) pour concevoir une nouvelle technologie de propulsion à hydrogène, destinée à l’aviation commerciale. Baptisé HySIITE (Hydrogen Steam Injected, Inter‐Cooled Turbine Engine), ce projet vise à utiliser de d’hydrogène liquide pour propulser des appareils à zéro émission. Il devrait également permettre de réduire de 80 % les émissions d’oxyde d’azote et de diminuer d’un tiers la consommation de carburant des appareils de nouvelle génération.
Un an après l’annonce du lancement d’un avion à hydrogène pour 2035 dans le cadre du programme ZEROe, Airbus a également annoncé, en février dernier, une nouvelle étape cruciale vers l’avion à hydrogène, dans le cadre d’un partenariat avec General Electric. L’ambition affichée est de faire voler un premier prototype à hydrogène en 2026. Celui-ci sera réalisé à partir d’un A380 modifié et devra surmonter de nombreux défis technologiques, à commencer par le stockage en toute sécurité d'hydrogène liquide, une forme d’énergie quatre fois plus volumineuse que le kérosène, qui nécessite des systèmes de stockage et de distribution cryogéniques capables de maintenir à une température de -253°C. Ce prototype, qui utilisera les quatre moteurs thermiques de l'A380, sera équipé de quatre réservoirs, situés à l’arrière de l’appareil, pouvant contenir 500 kg d’hydrogène. Ce démonstrateur doit permettre aux différents acteurs industriels impliqués dans ce projet de valider, d’ici 2028, les choix cruciaux concernant la conception et les matériaux de ce futur avion à hydrogène qui doit être mis en service en 2035.
Soulignons enfin que Lingen, dans le nord de l'Allemagne, abritera dès 2024 une centrale électrique pilote fonctionnant à l'hydrogène 100 % vert, et offrant une solution décarbonée pour la production d'électricité. Ce projet, mené conjointement par la société japonaise Kawasaki Heavy Industries (KHI) et le géant allemand de l'énergie RWE, repose sur une rupture technologique majeure développée par KHI (Voir Nature). Celle-ci permet, en modifiant leur chambre de combustion, et en dosant très finement le mélange d’admission, de transformer les turbines à gaz existantes en turbines à hydrogène capables de produire avec un rendement record de l'électricité décarbonée. RWE envisage, grâce à cette technologie, de produire directement, à l’horizon 2040, 50 GW d'électricité propre dans le monde, à partir de turbines à gaz modifiées pour fonctionner à l'hydrogène. Cette avancée technique pourrait accélérer sensiblement le passage à une production mondiale d'électricité totalement décarbonée...
C’est dans ce contexte que le Gouvernement vient de dévoiler, le 27 septembre dernier, une liste des dix premières usines pour lancer une filière compétitive d’hydrogène vert en France, avec plus de 5 milliards d’euros d’investissements. Parallèlement, la France, faisant valoir que notre mix électrique est le plus décarboné d’Europe, a demandé, de manière cohérente, à la Commission européenne d’intégrer le nucléaire dans les sources d’énergie pour la production de l’hydrogène vert, c’est-à-dire issu de sources décarbonées. Au même moment, l’ensemble des pays développés, menés par le Japon, sont convenus d'augmenter la production d'hydrogène à faibles émissions de CO2 à au moins 90 millions de tonnes par an d'ici 2030, contre 1 million de tonnes aujourd’hui.
Il faut bien comprendre que, pour réussir une transition énergétique mondiale intégrant massivement le vecteur hydrogène, la production mondiale d’hydrogène va devoir passer de 75 millions de tonnes par an à 150 millions de tonnes en 2030 (composé à 62 % d'hydrogène vert et à 38 % d'hydrogène bleu issu de gaz naturel) et à 520 millions de tonnes par an d’hydrogène vert en 2050, ce qui suppose de multiplier par vingt la capacité éolienne et solaire installée à cet horizon. Heureusement, l’arrivée prochaine d’une nouvelle génération d’éoliennes géantes flottantes et de cellules de panneaux solaires organiques souples à haut rendement, intégrant « à la source » la production et le stockage d’hydrogène, conjuguée au couplage des centrales nucléaires EPR de nouvelle génération avec des électrolyseurs à haute température et haut rendement (Voir Rapport du Sénat), devrait nous permettre, selon le Cabinet allemand Aurora Energy Research, de faire passer le prix du litre d'hydrogène de 10 euros à 1,5 euro en 2030, puis de produire suffisamment d’hydrogène vert en 2050 pour faire face à l’augmentation considérable de la demande, à la fois dans le domaine des transports, de la production d’énergie (électricité et chaleur) et du stockage de l’énergie.
Mais pour réussir cette transition énergétique mondiale d’une rapidité et d’une ampleur sans précédent, nous aurons besoin d’explorer, d’exploiter et de combiner de manière intelligente toutes les solutions technologiques viables. Dans cette perspective, il est capital que notre pays et l’Europe accroissent leurs efforts de recherche et de développement pour maîtriser la production de moteurs thermiques à hydrogène performants, sobres et compétitifs, pouvant être utilisés à la fois dans le secteur des transports et dans la production directe d’énergie décarbonée à usage industriel ou domestique.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
En intelligence artificielle, le deep learning analogique fonctionne différemment du deep learning numérique. Il crée un réseau de 'neurones' et de 'synapses' artificiels analogiques qui peuvent dépasser les performances d’un réseau neuronal numérique, tout en utilisant une fraction de l’énergie utilisée par le numérique.
Jusqu’à maintenant, le cerveau humain surpasse largement le deep learning en termes de performances. Un cerveau humain pesant à peine 1,3 kg peut effectuer de nouvelles tâches en quelques secondes en utilisant la même quantité d’énergie qu’une ampoule, tandis que la formation des plus grands réseaux de neurones prend des semaines, des mégawattheures d’électricité et des racks de transformateurs spécialisés.
La révolution est en marche puisque les neurones et synapses artificiels de l’équipe du MIT, construits à l’aide d’un nouveau matériau inorganique qui augmente les performances des appareils, atteignent une vitesse un million de fois plus rapide que celle du cerveau humain. Ces synapses artificielles imitent le comportement des synapses biologiques, qui utilisent des ions pour transmettre des signaux à travers l’espace entre deux neurones.
Le but est de permettre à l’IA de fonctionner de manière au moins aussi performante que le cerveau humain : en moins de temps et avec moins d’énergie que tout ce qui est fait pour l’instant.
Pour développer une résistance protonique programmable ultra-rapide et très économe en énergie, les chercheurs se sont concentrés sur le verre de phosphosilicate inorganique (PSG). Le PSG est essentiellement composé de dioxyde de silicium, sous forme de poudre, que l’on peut trouver dans de minuscules sacs destinés à éliminer l'humidité dans les embalages de meubles. Ces chercheurs ont découvert qu'un PSG optimisé pourrait avoir une conductivité protonique élevée à température ambiante sans avoir besoin d'eau, ce qui en ferait un électrolyte solide idéal pour cette application.
Le PSG permet un mouvement ultrarapide des protons car il contient une multitude de pores de taille nanométrique dont les surfaces fournissent des voies de diffusion des protons. Il peut également supporter des champs électriques pulsés très puissants. Ce nouveau matériau peut être utilisé avec les techniques de fabrication qui existent déjà pour le silicium. Ce qui le rend particulièrement intéressant puisqu’il pourra donc être intégré dans la technologie informatique actuelle. On pourra faciliter les applications de deep learning et leur donner une puissance inédite. « En d’autres termes, ce n’est pas une voiture plus rapide, c’est un vaisseau spatial », s’enthousiasme Murat Onen, co-auteur de l’étude et post-doctorant au MIT.
Ces processeurs dits "neuromorphes" seraient bien mieux adaptés à l’exécution de l’IA que les puces informatiques d’aujourd’hui, lente et complexes. Ju Li, professeur de science et d’ingénierie nucléaires de la Battelle Energy Alliance et co-auteure de l’étude continue : « La vitesse était vraiment surprenante. Normalement, nous n’appliquerions pas des champs aussi extrêmes sur les appareils, au risque de les réduire en cendres. Or, les protons ont fini par faire la navette à des vitesses immenses […] Et ce mouvement n’endommage rien, grâce à la petite taille et à la faible masse des protons ».
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L’été 2022 aura été marqué par plusieurs vagues de chaleur intenses en Europe, mais aussi aux États-Unis et en Asie. Pour les spécialistes, ce phénomène serait amené à devenir plus fréquent et intense avec le changement climatique. La situation des villes est particulièrement préoccupante à cause de l’effet "îlot de chaleur urbain" : la minéralisation de l’espace public, l’activité humaine et la configuration des villes contribuent à accumuler encore plus de chaleur.
Pour suivre cet effet, l’ESA prépare la mission LSTM (Land Surface Temperature Monitoring), qui sera menée par le satellite du programme Copernicus Sentinel-8 (qui devrait être opérationnel en 2029) et qui procédera à une mesure systématique des températures au sol, grâce à une caméra infrarouge. Afin de développer les outils d’analyse adaptés à cette nouvelle mission, les chercheurs ont utilisé les données de l’instrument de la Nasa Ecostress, installé à bord de la Station spatiale internationale, pour simuler les données de LSTM.
Le futur satellite Sentinel aura une résolution spatiale de 50 mètres, comparable à celle d’Ecostress, et 400 fois supérieure aux deux satellites Sentinel-3, lancés en 2016 et 2018, dédiés à une mission océanographique et à la surveillance de la végétation sur les terres émergées. Les relevés d’Ecostress pour Paris, Milan et Prague pour le 18 juin 2022, pendant une vague de chaleur, montrent par exemple que les espaces verts jouent un rôle crucial pour réduire les températures locales. L’objectif de LSTM est d’être un outil efficace pour la planification urbaine, afin de limiter l’effet d’îlot de chaleur urbain ou, pour les agriculteurs, afin d’optimiser la gestion de l’eau.
Article rédigé par Georges Simmonds pour RT Flash
Pour La Science
|
|
|
|
|
|
|
|
L’agriculture est à la fois la première responsable et la première victime du réchauffement climatique. D’après le rapport du Giec, elle est émettrice d’un quart des émissions mondiales de gaz à effets de serre lorsque l’on prend en compte la déforestation, à travers les émissions de méthane des élevages et du protoxyde d’azote lié à l’utilisation d’engrais azotés. Mais toujours selon le Giec, si l’augmentation des températures mondiales venait à dépasser les 2 degrés d’ici 2100, les cultures, telles que nous les connaissons, n’y survivraient pas.
Le secteur agricole est en effet très sensible aux aléas climatiques, surtout dans nos systèmes de production actuels où la monoculture nécessite des conditions stables. Or le réchauffement climatique conduit irrémédiablement au dérèglement du climat. Ce qui nous laisse craindre dans les prochaines décennies la multiplication de phénomènes météorologiques extrêmes comme les canicules, les sécheresses, la salinisation des sols, de grandes variations d’épisodes pluvieux, les inondations ou encore la prolifération des parasites et des maladies.
En France, certains de ces phénomènes ont déjà été observés et semblent s’accélérer depuis le début du siècle. Rien que cette année entre vagues de chaleur successives, sécheresse et épisodes de grêle tardifs au moment de la floraison, les agriculteurs ont été largement éprouvés.
Partout dans le monde, les États devront rendre les systèmes agricoles plus résilients s’ils veulent conserver leur souveraineté alimentaire. Préserver la biodiversité, les eaux et les sols, devient une urgence.
Repenser nos modes de production, de consommation, changer nos pratiques agricoles : les réponses sont multiples. ONG, associations et syndicats agricoles, tous militent pour un changement. Du recul de l’agriculture industrielle au profit de l’agriculture bio, de la permaculture, de l’agroforesterie, à la consommation de produits locaux et de saison. Du côté de l’innovation, l’agri tech française avance et quelques beaux fleurons tricolores émergent. C’est le cas d’Ombrea, une jeune pousse aixoise créée il y a six ans par une famille d’agriculteurs.
C’est en effet par nécessité que cette trentenaire s’est lancée avec son père dans l’entreprenariat en 2016. Cette année-là, Christian Davico avait perdu un quart de sa production à cause de la sécheresse. « On avait beau arroser, les plantes grillaient littéralement sur pied » se souvient-elle. Horticulteur dans les Bouches-du-Rhône, il n’en était pas à sa première calamité. Mais à ce rythme-là, la question de la survie de l’exploitation était bel et bien en jeu. Une inquiétude partagée par de nombreux voisins et membres de la famille, du grand père maraîcher, à l’oncle viticulteur ou la sœur éleveur de chevaux autour de Sainte Victoire et Aix-en-Provence.
Comment s’adapter à ces épisodes de sécheresse de plus en plus fréquents ? Comment protéger les cultures de la chaleur ? D’une question urgente d’agriculteur est arrivée une réponse d’ingénieur : des ombrières mobiles qui protègent quand cela est nécessaire. Le projet, tout d’abord soumis à un bureau d’étude, a donné naissance à un premier projet pilote. Installés sur des rampes coulissantes, des panneaux solaires automatisés s’ouvrent et se ferment à l’image d’un volet quand la température est trop haute. Si dans un premier temps, la réflexion portait sur la modulation des températures pour éviter la sécheresse, très vite l’entreprise comprend qu’il faut aller plus loin.
Les fondateurs d’Ombrea décident alors de former leur propre équipe de recherche et développement et emploient maintenant près d’une cinquantaine de salariés. Docteurs en biologie, agronomes, ingénieurs informatique et mécatronique ont mis au point une technologie de rupture plusieurs fois brevetée qui vise à protéger les cultures, améliorer leur rendement et produire de l’énergie verte.
Les installations que propose aujourd’hui l’entreprise se sont sophistiquées pour s’adapter à tous types de cultures. Des rampes hautes pour la vigne sont devenues rotatives pour les arbres fruitiers. Équipées de capteurs pilotés par intelligence artificielle, les panneaux sont capables de changer de position en temps réel en fonction des conditions météorologiques. Ombrea a créé un outil qui modère non seulement les effets des sécheresses mais qui peut aussi prévenir les gelées ou la grêle et assure au final un bon développement des plantes. « En modifiant l’ombrage, on arrive à modifier la lumière, la température, l’humidité et cela a des conséquences très fortes pour les cultures en dessous. On économise plus de 20 % d’eau en créant un microclimat optimal pour le bon développement de la plante » affirme Julie Davico-Pahin.
Une dizaine d’exploitations agricoles sont aujourd’hui équipées d’ombrières dynamiques. Des exploitations privées, que ce soit du maraîchage en circuit court près d’Aix-en-Provence, des vergers de pruniers ou de grenades dans le Var et des vignobles dans le Sud-Ouest mais également des collectivités locales comme Châteauneuf-le-Rouge, une commune des Bouches-du-Rhône qui a soutenu un projet de maraîchage pour produire des légumes pour la cantine de l’école et de la maison de retraite.
Selon les premiers retours d’expérience, le système de protection climatique d’Ombrea a permis une augmentation de rendement d’environ 20 %, c’est le cas notamment pour l’horticulture. Pour la vigne, les premières données sont également positives. Moins de soleil permet en effet des taux de sucre et d’alcool moins élevés. D’une manière générale, pouvoir réguler l’ensoleillement évite le stress hydrique des plantes et garantit une meilleure qualité des fruits et légumes, estime Pierre-Antoine Chuste, le responsable scientifique d’Ombrea.
Depuis sa commercialisation, Ombrea a équipé de son système d’ombrières dynamiques environ 120 hectares de culture. Son objectif est d’atteindre les 1 000 hectares en 2027. La France est un pays pionnier de l’agrivoltaïsme avec Israël et les États-Unis mais Ombrea affirme être seule à garder une approche agricole. « Nous nous sommes donnés une ligne de conduite très claire » affirme la jeune cheffe d’entreprise. « L’impact doit être positif pour l’agriculture. La production d’énergie solaire n’est pas notre priorité ». Autrement dit, l’algorithme qui pilote les panneaux solaires a été élaboré pour répondre aux besoins des agriculteurs face aux urgences climatiques. La production solaire, loin d’être négligeable, reste toutefois un objectif subsidiaire.
Article rédigé par Georges Simmonds pour RT Flash
Radio France
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs américains ont mis au point un traitement intranasal à dose unique qui réduit les symptômes de plusieurs variantes du virus SARS-CoV-2 et bloque également la transmission de ce virus. Ces travaux, menés au Gladstone Institutes (Californie) et présentés dans les Actes de l’Académie des Sciences américaine, apportent les premières preuves d’efficacité du traitement non seulement sur le blocage de la transmission mais aussi sur l'excrétion virale.
Le principe est qu’au moment même du diagnostic ou test COVID positif, le virus SARS-CoV-2 s’est déjà bien implanté dans le système respiratoire. À chaque respiration, une personne infectée exècre des particules virales invisibles dans l'air. Or les médicaments existants ne font rien pour réprimer l'excrétion virale. Les chercheurs californiens proposent une nouvelle approche pour le traitement du COVID mais plus largement des maladies infectieuses : un traitement intranasal à dose unique. Nommé "particule interférente thérapeutique" (ou "TIP" pour therapeutic interfering particle), le médicament réduit aussi la quantité de virus excrétée par les animaux infectés et limite ainsi la transmission du virus.
Selon l’auteur principal, Leor Weinberger, chercheur au Gladstone, « Notre étude montre qu'une seule dose intranasale de TIP réduit la quantité de virus transmis et protège les animaux exposés ». Comme les TIP s’établissent à l'intérieur des cellules que le virus cible, ces particules évoluent en même temps et restent actives même lorsque de nouvelles variantes émergent. « Les TIP sont ainsi un traitement idéal car elles continuent d'apprendre à mesure que le virus évolue, de sorte qu’elles peuvent juguler le problème de la résistance aux médicaments ».
L’étude préclinique montre, chez les rongeurs, que les TIP peuvent bloquer efficacement plusieurs variantes du SRAS-CoV-2, en divisant par 100 fois la charge virale dans les poumons et en conséquence en diminuant considérablement les symptômes liés à l’infection. Le médicament réduit aussi l'excrétion virale, un effet complètement distinct de la réduction des symptômes et de la charge virale. « Nous savons que la quantité de virus excrétée est proportionnelle au degré d'infection d'une personne. Si l'excrétion virale peut être réduite, le nombre de contacts secondaires susceptibles d'être infectés sera également très probablement réduit ». Alors que les expériences initiales ont été effectuées en utilisant la souche Delta du SRAS-CoV-2, les chercheurs ont répété les tests en utilisant la souche ancestrale WA-1 du virus et confirment que les TIP sont bien efficaces contre toutes les variantes.
Article rédigé par Georges Simmonds pour RT Flash
PNAS
|
|
|
|
|
|
|
|
Des scientifiques de l'Université de Californie expérimentent un nouveau traitement prometteur qui est à l'essai contre le cancer du pancréas. Il s'agit d'une thérapie combinée qui utilise des nanoparticules chargées à la fois d'irinotécan, un médicament de chimiothérapie, et de 3M-052, un médicament expérimental qui stimule l'activité immunitaire et permet de surmonter la résistance des tumeurs.
En plus de bloquer la croissance des cellules cancéreuses, l'irinotécan envoie un signal de mobilisation aux cellules dendritiques du système immunitaire ; celles-ci mobilisent à leur tour les cellules T tueuses, qui se déplacent vers les sites tumoraux et détruisent les cellules cancéreuses. C’est là qu’intervient le second composé de ce traitement : comme les cellules dendritiques sont souvent fonctionnellement altérées chez les patients atteints d'un cancer du pancréas, le médicament expérimental 3M-052 va venir stimuler ces cellules dendritiques, les aidant à mobiliser les cellules T tueuses, à la fois au niveau de la tumeur, mais aussi dans les ganglions lymphatiques voisins.
Ce nouveau traitement est également une merveille d’ingénierie : alors que la plupart des nanovecteurs sont composés de couches de molécules lipidiques, semblables à une membrane cellulaire, avec des espaces dans lesquels les médicaments peuvent être conditionnés, dans ce nouveau dispositif cette double couche de lipides entoure une minuscule bille de verre centrale en silice dont l'intérieur est rempli d'irinotécan. C’est la partie postérieure de ce nanovecteur, composé de molécules lipidiques, qui permet d’intégrer le second médicament, directement dans ces couches lipidiques externes.
Article rédigé par Georges Simmonds pour RT Flash
UCLA
|
|
|
|
|
|
|
|
Neuf Français sur dix ont souffert d'une douleur de courte ou longue durée au cours de l'année écoulée. Chez l'adulte, la prise en charge de la douleur repose principalement sur des médicaments dits antalgiques, divisés en trois classes en fonction de leur puissance d'action. Ils vont du paracétamol aux dérivés de la morphine, en passant par la codéine. En cas de douleur, il est déconseillé de prendre des antalgiques plus de cinq jours sans avis médical. Mais la prise d'antidouleurs s'accompagne souvent de certains effets secondaires indésirables : des nausées, de la somnolence ou une constipation, par exemple.
La prise en charge de la douleur pourrait bientôt connaître un bouleversement. Des chercheurs de l'université anglaise de Warwick ont découvert un nouvel analgésique non opioïde prometteur. Ce dernier, composé de BnOCPA (benzyloxy-cyclopentyladénosine), serait très efficace pour lutter contre la douleur, avec des effets secondaires réduits et sans risque de dépendance.
Ce médicament doit ses remarquables propriétés à son action très sélective, contrairement à d'autres produits qui agissent via des protéines à la surface des cellules activant des molécules adaptatrices appelées protéines G. C'est l'activation de ces dernières qui peut causer des effets indésirables. En revanche, le BnOCPA n’active qu’un seul type de protéines G. Grâce à ce mécanisme d’action extrêmement ciblé, le risque d'effets secondaires est drastiquement réduit et cet analgésique ne provoque pas de sédation, de bradycardie, d'hypotension ou de dépression respiratoire.
« Nous ne nous attendions pas à ce que le BnOCPA se comporte différemment des autres molécules de sa classe, mais plus nous examinions le BnOCPA, plus nous découvrions des propriétés qui n'avaient jamais été vues auparavant et qui pourraient ouvrir de nouveaux domaines de la chimie médicinale », assure le professeur Bruno Frenguelli, principal chercheur du projet, de l'école des sciences de la vie de l'Université de Warwick. Ce médicament pourrait remplacer de nombreux antidouleurs actuellement sur le marché.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Très difficile à traiter, le cancer du pancréas devrait devenir la deuxième cause de décès par cancer aux États-Unis d'ici 2030. La détection précoce de ce cancer est donc devenue un enjeu majeur de santé publique, car le pronostic s'aggrave considérablement une fois que la tumeur dépasse 2 centimètres.
La tomodensitométrie est la principale méthode d'imagerie pour la détection du cancer du pancréas, mais elle passe à côté d'environ 40 % des tumeurs de moins de 2 centimètres. Il existe un besoin urgent d'un outil efficace pour aider les radiologues à améliorer la détection du cancer du pancréas.
Des chercheurs taïwanais ont développé un outil de détection assistée par ordinateur (CAO) qui utilise un type d'IA appelé apprentissage en profondeur pour détecter le cancer du pancréas. Ils ont précédemment montré que l'outil pouvait distinguer avec précision le cancer du pancréas et le pancréas non cancéreux. Les chercheurs ont développé l'outil à partir d’un ensemble de tests internes composé de 546 patients atteints d'un cancer du pancréas et de 733 participants témoins. L'outil a atteint une sensibilité de 90 % et une spécificité de 93 % pour distinguer le cancer du pancréas des témoins dans cet ensemble. La sensibilité pour la détection des cancers du pancréas de moins de 2 centimètres était de 75 %.
« Les performances de cet outil d'apprentissage en profondeur sont comparables à celles des meilleurs radiologues et notre système pourrait constituer une aide précieuse pour permettre aux médecins de détecter de manière sûre et précoce ce cancer et augmenter ainsi les chances de guérison pour les patients », souligne l'auteur principal de l'étude, Weichung Wang, Ph.D., professeur à l'Université nationale de Taiwan.
Article rédigé par Georges Simmonds pour RT Flash
Science Daily
|
|
|
|
|
|
|
|
Une équipe sino-américaine (Institut des nanosytèmes de l’Université de Californie-Los Angeles et Université de Wuhan) a développé un nouveau traitement efficace et peu contraignant permettant, en une injection, la destruction d'un très grand nombre de cellules tumorales : chargée sur un matériau injectable au site de la tumeur, cette immunothérapie par inhibiteur de point de contrôle immunitaire permet, avec une dose réduite, de tuer plus de cellules cancéreuses avec moins d’effets indésirables.
L'immunothérapie par inhibiteurs de points de contrôle constitue aujourd’hui un pilier de la prise en charge du cancer. S’il existe de nombreuses réponses par lesquelles le corps réagit aux cellules anormales ou aux envahisseurs, l’un des principaux mécanismes implique les lymphocytes T du système immunitaire, dotés à leur surface de protéines « de point de contrôle ». Ces protéines de point de contrôle se lient aux protéines de surface d'autres cellules, ce qui peut entraîner soit une stimulation, soit une suppression de l'activité des lymphocytes T.
Les cellules tumorales peuvent parfois se doter de protéines de surface qui déjouent le système immunitaire en se liant aux lymphocytes T et en supprimant leur activité. Cela permet aux cellules tumorales de prospérer et de se propager. Ces dernières années, des anticorps "inhibiteurs de point de contrôle immunitaire" (ICI) ont été développés qui bloquent la liaison des cellules tumorales aux lymphocytes T, ce qui permet de réactiver la réponse immunitaire des lymphocytes T pour détruire les cellules tumorales. Ces thérapies sont aujourd’hui documentées comme efficaces contre les cancers des reins, de la vessie, du foie et de la tête ou du cou.
L’administration de l’immunothérapie est ciblée et injectable, grâce à un biomatériau rhéofluidifiant, c’est-à-dire dont la fluidité s’accroît lorsque la vitesse d'écoulement augmente. Grâce à ce biomatériau, les anticorps inhibiteurs de point de contrôle immunitaire (ICI) -dont la mission est de bloquer les protéines spécifiques des points de contrôle pour permettre aux cellules immunitaires d'attaquer et de détruire les cellules cancéreuses- peuvent être délivrés par injection et libérés sur le site de la tumeur. Les ICI se lient aux cellules T, empêchant la liaison et la suppression des cellules T par les cellules tumorales. Les cellules T peuvent à nouveau cibler et attaquer les cellules tumorales.
Cette approche ciblée permet de réduire les doses plus élevées et les éventuels effets secondaires constatés avec les traitements systémiques. En effet, les ICI sont administrés par injection systémique, et bien que ces anticorps aient démontré leur efficacité, leurs effets varient selon les patients. Pour certains patients, le caractère systémique de l’administration peut entraîner une stimulation excessive des lymphocytes T et des effets secondaires toxiques. L'administration systémique de médicaments dilue également l'efficacité de l'ICI, nécessitant des doses plus élevées donc plus toxiques.
Un biomatériau de gélatine injectable chargé d'ICI, grâce à des nano-plaquettes de silicate qui se lient aux ICI, est délivré par injection peu invasive au site tumoral. Le mélange gélatine/nano-plaquettes a été optimisé pour une administration plus efficace de l'ICI et une libération prolongée du médicament.
Article rédigé par Georges Simmonds pour RT Flash
News Medical
|
|
|
|
|
|
|
|
Une équipe internationale, associant des chercheurs suédois, canadiens et américains, a découvert un gène protecteur, l'OAS-1, qui permet à certaines personnes de ne pas faire de forme grave de la maladie en créant un mécanisme antiviral puissant.
Ainsi, en plus de l'âge avancé et certaines maladies sous-jacentes (affections cardiovasculaires, diabète, obésité…), la génétique peut influencer le type de Covid qu'une personne va développer. C'est une étude du début de l'année 2021 sur l'ADN hérité de Néandertal qui a été poussée et élargie pour tenter de comprendre la manière dont le Covid affecterait plus ou moins les sujets selon leur patrimoine génétique et leurs origines.
Et le résultat est sans appel : en Europe, les personnes porteuses d'un segment particulier d'ADN ont un risque 20 % moins élevé de développer une infection critique au Covid-19 grâce à un gène, l'OAS-1. Selon les auteurs de l'étude, ce gène est présent chez 8 individus d'origine africaine sur 10, leur offrant une protection plus grande face au virus. L'héritage néandertalien s'étant produit après la migration hors d'Afrique de nos ancêtres, les chercheurs ont concentré leurs recherches sur les personnes d'ascendance africaine. Ces dernières n'ont pas d'héritage néandertalien mais possèdent la majorité de ce segment d'ADN protecteur contre le virus.
Pour faire aussi simple que possible, ce gène, en présence du virus, indiquerait au corps de fabriquer une protéine efficace pour décomposer le Sras-CoV-2. Ce gène détermine la longueur de la protéine codée par le gène OAS-1 et lorsqu'elle est plus longue, elle est plus efficace pour décomposer le Sars-CoV-2. Co-auteur de l'étude, Brent Richards, de l'Université canadienne de McGill, s'enthousiasme sur cette découverte qui est « essentielle pour développer de nouveaux médicaments contre le Covid-19 ».
Alors que l'essentiel des recherches se concentre sur les personnes principalement d'origine européenne, cette « étude montre à quel point il est important d'inclure des individus d'ascendances différentes. Si nous n'avions étudié qu'un seul groupe, nous n'aurions pas réussi à identifier la variante du gène dans ce cas », expliquait un autre co-auteur, Hugo Zeberg, professeur adjoint au Département de neurosciences du Karolinska Institutet en Suède. Par ailleurs, la découverte de ce gène pourrait également expliquer en partie la virulence beaucoup moins forte du Covid-19 sur le continent africain.
Article rédigé par Georges Simmonds pour RT Flash
Mc Gill
|
|
|
|
|
|
|
|
À moins de 800 kilomètres du pôle Nord, dans l'océan Arctique, se cache une masse d'eau d'un genre particulier : un lac dit "épi-plateforme" ("epishelf", en anglais), celui de Milne Fiord, où de l'eau douce surplombe de l'eau de mer salée plus dense. L'étendue est recouverte par de la glace, ce qui empêche la formation de vagues ou le vent de mélanger les deux types d'eau. Un phénomène rare dans un environnement qui l'est tout autant, et qui s'accompagne d'autres étranges découvertes à l'intérieur du lac.
Des chercheurs de l'Université de Laval (Québec, Canada) ont prélevé et analysé des échantillons du lac Milne Fiord, à l'aide du séquençage d'ADN. Ils ont ainsi découvert que l'eau douce renfermait une plus grande variété de virus en son sein que l'eau salée. Plus encore, parmi ces agents infectieux, ils ont trouvé des virus "géants" de la famille des Megaviricetes, parfois plus grands que certaines bactéries. Mais surtout, « avec des génomes qui pourraient potentiellement porter de nombreux gènes intéressants », explique Mary Thaler, microbiologiste et co-auteure de l'étude.
Par ailleurs, ces virus "géants" infectaient les algues microscopiques évoluant entre les deux types d'eau, juste à la limite de l'eau salée, sans que les scientifiques ne sachent encore comment. Si des recherches plus poussées doivent être menées pour percer les mystères de cette masse d'eau atypique, les biologistes se sont désormais engagés dans une course contre la montre. Le réchauffement climatique et la hausse des températures menacent de faire fondre la glace qui permet à l'eau douce — et à l'ensemble de son écosystème vulnérable — de rester stable.
Article rédigé par Georges Simmonds pour RT Flash
AEM
|
|
|
|
|
|
|
|
Qu’est-ce qui fait de nous cet humain moderne, par rapport à nos cousins Néandertaliens et Dénisoviens qui ont divergé de nous il y a au moins 600 000 ans ? Une équipe pilotée depuis le Max Planck Institute of Molecular Cell Biology and Genetics vient d’annoncer une découverte importante. En comparant le génome humain et celui de ses deux cousins archaïques, ils ont mis la main sur une mutation (hTKTL1) qui semble jouer un rôle majeur dans le développement cérébral. De quoi jeter un éclairage neuf sur ce que l’homme moderne a en tête.
Le gène concerné, baptisé TKTL1, était surtout étudié pour sa contribution au métabolisme des tumeurs. Mais les chercheurs ont démontré, chez la souris et le furet, que la mutation humaine hTKTL1 favorise la prolifération de cellules (gliales) impliquées dans la construction du lobe frontal lors du développement de l’embryon. Or, cette partie du cerveau est associée aux fonctions mentales les plus élaborées : langage, analyse, décision… Le dernier acte de la démonstration est le plus frappant : dans un organoïde de cerveau humain – sorte de mini-cerveau de laboratoire – ils ont démontré que bloquer la mutation réduisait le nombre de cellules gliales et de neurones générés.
Qu’une unique mutation ait un rôle aussi clair sur l’architecture et la taille du cortex frontal est impressionnant en soi. Les paléogénéticiens pensent avoir mis la main sur un mécanisme clé pouvant expliquer les différences cognitives supposées entre l’homme moderne et ses cousins plus archaïques de Néandertal et de Denisova. Celles-ci restent débattues, mais on sait que le cerveau néandertalien était plus allongé, avec un lobe frontal moins développé. La comparaison des génomes entre l’homme moderne et Néandertal en 2014 a mis en évidence 96 mutations d’écart. On soupçonne plusieurs d’entre elles de jouer un rôle dans le développement cérébral.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Des scientifiques de l’Institut Max Planck pour la recherche sur les polymères ont développé une nouvelle méthode pour les éliminer en quelques heures seulement. La technique repose sur des molécules autoassemblées asphyxiant littéralement les cellules cancéreuses. Les scientifiques basent leur étude sur l’une des fonctions métaboliques clés des cellules de tous les êtres vivants, appelée la conversion de l’oxygène en ATP (adénosine triphosphate). Cette molécule est le principal vecteur d’énergie dans les cellules, nécessaire aux réactions chimiques du métabolisme, à la locomotion, à la division cellulaire, ou encore au transport actif d’espèces chimiques à travers les membranes biologiques.
Comme mentionné précédemment, la principale contre-mesure aux traitements anticancer est la prolifération des cellules cancéreuses, nécessitant beaucoup d’énergie, c’est pourquoi l’ATP joue un rôle clé. David Ng, de l’Institut Max Planck pour la recherche sur les polymères, explique : « Nous voulons empêcher une telle adaptation en envahissant le pilier principal de la vie cellulaire — comment les cellules respirent c’est-à-dire absorbent l’oxygène — et produisent ainsi de l’énergie chimique pour la croissance ». Concrètement, si l’on prive le cancer de cette source d’énergie, on peut le stopper dans son élan métastasique.
L’équipe de recherche a produit une "drogue" synthétique qui se déplace dans les cellules, où elle réagit aux conditions présentes à l’intérieur et déclenche un processus chimique. Cette drogue est constituée de tripeptides contenant du platine (II). Lorsqu’elle pénètre dans l’environnement cellulaire, elle répond au peroxyde d’hydrogène endogène (produit à l’intérieur de l’organisme) en regroupant ses molécules pour former de minuscules poils, des milliers de fois plus fins qu’un cheveu humain. Les nanostructures formées bloquent les fonctions métaboliques, y compris la glycolyse aérobie et la phosphorylation oxydative, arrêtant ainsi la production d’ATP.
En effet, les scientifiques ont surveillé la consommation d’oxygène dans différents types de cellules et ont découvert que les poils les empêchaient toutes de convertir l’oxygène en ATP. Le processus a fonctionné même pour les cellules dérivées d’un cancer métastatique incurable.
En conséquence, les cellules meurent rapidement en seulement quatre heures environ. Avec encore quelques années de recherches supplémentaires, les scientifiques espèrent pouvoir développer une nouvelle méthode pour traiter un cancer jusqu’ici incurable.
Weil, Ng et ses collègues, grâce à leurs résultats encourageants dans une culture de laboratoire contrôlée, veulent approfondir leurs connaissances sur la façon dont ces minuscules poils empêchent la conversion de l’oxygène en énergie chimique. Avec un développement ultérieur, ces nanostructures pourraient éventuellement être manipulées pour contrôler d’autres processus cellulaires afin de traiter d’autres maladies graves.
Article rédigé par Georges Simmonds pour RT Flash
Institut Max Planck
|
|
|
|
|
|
|
|
Les organoïdes sur puce, ou OoCs sont un sujet aussi fédérateur qu’emblématique pour le CEA. Les objectifs sont multiples : accompagner le développement de cette technologie et concevoir des dispositifs complets capables, entre autres, d’effectuer des tests cliniques in vitro. Les organoïdes sur puce, ou OoCs sont à la croisée de plusieurs domaines de la recherche : les organoïdes, les laboratoires sur puce et la microfluidique.
L’incorporation et la culture de cellules souches dans un hydrogel conduisent à la formation d’amas de cellules qui s’apparentent à des sphères et qui reproduisent la diversité cellulaire des tissus originels. Ces amas ont la particularité de mimer, au moins de manière partielle, le fonctionnement des tissus qui ont conduit à leur formation. On les appelle donc organoïdes parce qu’ils sont capables de mimer le comportement d’organes : pancréas, rein, cerveau, prostate, etc.
Les laboratoires sur puce sont déjà utilisés pour détecter des protéines, des peptides ou des acides nucléiques dans des échantillons biologiques de sang, de salive, etc. Cette technologie a d’ailleurs rendu possible l’analyse biologique en dehors du laboratoire, ce qui permet notamment de réduire la consommation de réactifs biologiques et de gagner en sensibilité et/ou en temps d’analyse. La microfluidique est un domaine consistant à manipuler des fluides dans des réseaux de microcanaux, qui a atteint la maturité technologique durant la dernière décennie. Elle permet de développer des systèmes de plus en plus sophistiqués, notamment pour l’ingénierie cellulaire au service des organoïdes.
Formés à partir de cellules souches cultivées dans un système microfluidique de la taille d’une carte de crédit, les OoCs sont de formidables outils qui constituent, pour certains chercheurs, un changement de paradigme. En effet, parce qu’ils sont capables de reproduire en partie l’environnement d’un organe et ses fonctionnalités, même dans des conditions pathologiques, les OoCs sont ainsi porteurs de promesses fortes.
Le premier domaine d’application des OoCs est la biologie fondamentale. Pourquoi ? Parce que ces dispositifs facilitent la compréhension de la biologie du développement humain et permettent de mimer une pathologie. Les OoCs sont un outil précieux pour identifier les fonctions physiologiques d’un organe. Par ailleurs, la transparence des plastiques constituant les OoCs facilite également l’étude de l’architecture des cellules.
Les OoCs permettent entre autres de tester la toxicité de substances ou de conduire à la découverte de nouveaux médicaments. Dans un futur plus ou moins proche, ils entreront très probablement dans le parcours de soin des patients, dans le cadre d’une médecine participative et personnalisée. Les OoCs permettent également d’étudier les cellules prélevées sur les patients et d’anticiper leurs réactions. Cela laisse entrevoir la possibilité d’une médecine prédictive personnalisée dans laquelle une solution spécifique sera apportée à chaque patient pour sa maladie. L’oncologie sera ainsi l’une des priorités du développement des OoCs, les médicaments actuels n’étant efficaces que sur une partie des malades.
Une fois atteint le stade de la médecine personnalisée, un autre défi se présente : cultiver des organoïdes à partir de cellules souches d’un patient pour les lui réimplanter et "réparer" un organe déficient, par exemple en attendant une greffe.
Article rédigé par Georges Simmonds pour RT Flash
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
On savait déjà que la vitamine D contribuait au bon fonctionnement du système immunitaire inné et les personnes infectées affichaient généralement des taux de vitamine D plus faibles que le reste de la population. Elle joue également un rôle majeur dans l’absorption du calcium et du phosphore, la minéralisation osseuse et la fonction musculaire. Une nouvelle étude suggère aujourd’hui qu’une supplémentation en vitamine D pourrait soulager les symptômes des personnes dépressives.
La vitamine D est synthétisée directement, au niveau de la peau, via l’exposition aux UVB solaires, à partir des dérivés du cholestérol naturellement présents dans l’organisme. Mais cette source est très variable selon les régions du monde, qui sont plus ou moins ensoleillées. L’alimentation permet heureusement de compléter cet apport : les poissons gras, les œufs, la viande, les champignons et les produits laitiers enrichis sont de bonnes sources de vitamine D. Pour les adultes, un apport de 15 microgrammes par jour est recommandé. Dans les faits, de nombreuses personnes ont une carence en vitamine D, surtout dans nos latitudes et notamment chez les personnes âgées — les capacités d’absorption et de synthèse de vitamine D diminuant avec l’âge.
Ces dernières années, plusieurs études ont suggéré qu’il pouvait y avoir un lien entre une carence en vitamine D et la dépression, un trouble mental courant qui touche 5 % des adultes dans le monde, selon l’Organisation mondiale de la santé. Les symptômes de la dépression (humeur morose, perte de plaisir ou d’intérêt pour les activités, difficultés de concentration, perte d’estime de soi, troubles du sommeil, pensées négatives, etc.) ont un lourd impact sur la vie quotidienne des personnes concernées et constituent une importante charge de morbidité. Les médicaments antidépresseurs peuvent s’avérer efficaces, mais sont parfois insuffisants. De ce fait, d’autres voies de traitement sont recherchées, notamment du côté de la nutrition.
Des études ont montré que la vitamine D biologiquement active, le récepteur nucléaire de la vitamine D et les enzymes activant et métabolisant la vitamine D, sont présents dans les neurones, les cellules gliales et les macrophages cérébraux. Par conséquent, il a été suggéré qu’elle pourrait jouer un rôle dans la régulation des fonctions du système nerveux central, dont les perturbations ont été associées à la dépression. Cette hypothèse a été soutenue par plusieurs études transversales ayant mis en évidence une association entre les symptômes dépressifs et la carence en vitamine D.
Cependant, les méta-analyses réalisées jusqu’alors sur les effets de la supplémentation en vitamine D sur la santé mentale n’ont pas été concluantes — la majorité d’entre elles n’ont fourni aucune preuve d’un quelconque effet positif. Des chercheurs de l’Université de l’est de la Finlande se sont à nouveau penchés sur la question. Ils se sont livrés à une nouvelle méta-analyse des études passées, passant au crible les résultats de 41 études menées dans le monde entier. Toutes étaient des essais randomisés contrôlés par placebo, dans différentes populations d’adultes.
Les résultats de cette nouvelle méta-analyse montrent que la supplémentation en vitamine D est plus efficace qu’un placebo pour soulager les symptômes dépressifs chez les personnes souffrant de dépression. Il y avait des différences majeures dans les doses de vitamine D utilisées, mais le supplément de vitamine D était généralement de 50 à 100 microgrammes par jour. « Malgré une forte hétérogénéité, une supplémentation en vitamine D ≥ 2 000 UI/jour semble réduire les symptômes dépressifs », a conclu l’équipe. Les résultats sont toutefois à nuancer.
Les 41 études examinées impliquaient plus de 53 000 individus, la plupart (84 %) étant des femmes, souffrant ou non de dépression ; les participants étant supplémentés en vitamine D ou étaient sous placebo. La taille des échantillons variait énormément (de n = 42 à n = 36282). De même, la durée des interventions variait entre cinq jours et cinq ans et les doses uniques de vitamine D variaient de 400 à 500 000 UI (et, calculées par jour d’intervention, de 400 UI à environ 14 000 UI).
Les analyses suggèrent que la supplémentation en vitamine D semble réduire les symptômes dépressifs, en particulier chez les personnes diagnostiquées avec un trouble dépressif majeur et chez les femmes souffrant de dépression périnatale, précise l’équipe. En outre, l’effet de la supplémentation semble plus important lorsque les suppléments sont pris sur une courte durée (moins de 12 semaines). Côté dosage, les supplémentations inférieures à 4 000 UI/jour ont eu un effet faible à modéré ; au-delà, l’effet était plus important. De plus, la supplémentation n’a eu qu’un effet faible à modéré lorsque les personnes présentaient un taux sérique de vitamine D faible (≤ 50 nmol/L) à suffisant (> 50 nmol/L) au début de l’expérimentation.
« Nos résultats suggèrent que la supplémentation en vitamine D a des effets bénéfiques chez les personnes atteintes d’un trouble dépressif majeur, ainsi que chez celles présentant des symptômes dépressifs plus légers et cliniquement significatifs », résume l’équipe. Même si leur méta-analyse inclut un très grand nombre d’individus, les chercheurs demeurent prudents quant aux résultats obtenus : ils soulignent que les preuves d’une association entre vitamine D et dépression restent fragiles du fait de l’hétérogénéité des populations étudiées et du risque de biais associé à un grand nombre d’études.
Article rédigé par Georges Simmonds pour RT Flash
UEF
|
|
|
|
|
|
|
|
Selon une étude lancée à l’initiative du centre de lutte contre le cancer Léon-Bérard de Lyon et Rhône-Alpes, avec le soutien de la Fondation ARC pour la recherche sur le cancer, certains polluants présents dans l’air seraient susceptibles d’augmenter le risque de cancer du sein chez les femmes. Ce travail repose sur un échantillon de plus de 10 000 femmes, malades et non malades, suivies entre 1990 et 2011. « Si les facteurs génétiques, reproductifs et hormonaux du cancer du sein sont bien identifiés, ils ne permettent pas d’expliquer l’ensemble des cas », souligne le département «prévention cancer environnement» du centre. « Des études épidémiologiques et expérimentales ont suggéré que l’exposition à des polluants environnementaux, en particulier ceux à effet perturbateur endocrinien, pourrait avoir un rôle dans le développement du cancer du sein ».
C’est sur la base de cette hypothèse et à l’issue de ce programme scientifique inédit, baptisé Xenair, que les chercheurs ont pu établir un lien entre l’exposition chronique – à faible dose – aux polluants atmosphériques et le risque de cancer du sein, cancer féminin le plus fréquent dans le monde avec 58 500 nouveaux cas en France en 2020. Sur les huit polluants de l’air étudiés et classés pour six d’entre eux comme cancérogènes pour l’homme par le Centre international de recherche sur le cancer (Circ), cinq sont mis en cause dans l’augmentation du risque de la maladie. Le NO2 ou dioxyde d’azote, principalement émis par le trafic routier, augmente le risque de cancer du sein d’environ 9 % chez les femmes les plus exposées aux polluants. Même constat concernant les particules (PM10) et les particules fines (PM2.5), issues du chauffage au bois, des carburants routiers et des secteurs des chantiers et de l’industrie manufacturière, avec respectivement +8 % et +13 % de risque.
Le benzo[a]pyrène (BaP), trouvé dans le goudron de houille, les fumées de combustion du bois et de végétaux, la fumée de cigarette, les vapeurs des pots d’échappement ou les viandes grillées (au barbecue notamment), accroît, quant à lui, le risque de tumeur d’environ 15 %. Enfin, cinquième et dernier mis en cause, le polychlorobiphényles (PCB153), provenant des combustions industrielles, atteint le pourcentage le plus élevé avec environ +19 % de risque. Un danger quotidien qui perdure, et ce malgré la baisse continue et globale de l’exposition à ces polluants entre 1990 et 2011.
Pour arriver à ces résultats, «nous avons comparé les expositions des femmes du même âge malades avec celles non malades sur une période donnée (1990-2005 ou 1990-2000 par exemple), en estimant les expositions moyennes annuelles de leurs lieux de vie pour les différents polluants atmosphériques, ce qui nous a permis d’estimer le risque qu’elles encourent pour chacun des polluants sélectionnés. Polluants pour lesquels il était possible d’estimer les expositions rétrospectivement depuis 1990 », détaille Delphine Praud, chercheuse en épidémiologie environnementale ayant travaillé sur l’étude Xenair. Ce qui n’était pas le cas à l’époque des particules ultrafines (PUF) qui font l’objet désormais d’inquiétudes croissantes de la part des autorités sanitaires.
En parallèle, des analyses supplémentaires ont démontré un risque plus élevé « chez les femmes ayant été exposées pendant leur transition ménopausique – période de sensibilité accrue – pour le BaP et le PCB153, deux polluants classés comme perturbateurs endocriniens », ajoute l’étude. A contrario, cette dernière ne fait pas de lien entre cancer du sein et exposition au cadmium et aux dioxines, issus tous deux des procédés industriels, bien que le cadmium ait été identifié comme étant une cause importante du cancer du sein via l’alimentation. D’autres analyses en cours concernent l’exposition à l’ozone, huitième et dernier polluant pris en compte dans l’étude Xenair.
Face à de tels résultats, l’amélioration de la qualité de l’air reste donc un levier majeur pour contribuer à la prévention du cancer du sein en France. Pour preuve : « Si on prend comme référence les seuils de l’Europe pour les particules PM2.5., les particules PM10 et les dioxydes d’azote (NO2), respectivement près de 4 %, 1 % et 1 % des cancers du sein des femmes de notre étude auraient pu être évités », relaient les deux scientifiques qui travaillent aussi actuellement sur la question de l’effet combiné de l’exposition à ces polluants multiples, avec un soutien de la Ligue contre le cancer, de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) et de l’Anses. « En revanche, si les niveaux d’exposition au NO2 ou dioxyde d’azote étaient en dessous des recommandations de l’OMS de 2022, 7 % des cancers du sein de la population Xenair auraient été évités ». Des estimations qui restent à confirmer pour les particules PM2.5 et les particules PM10.
Article rédigé par Georges Simmonds pour RT Flash
Centre Léon Bérard
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|