|
|
|
|
|
NUMERO 1124 |
|
|
|
|
|
|
|
Edition du 08 Octobre 2021
|
|
|
|
|
Edito
Comment l'Humanité devrait se nourrir dans l'Avenir : Gastronomes s'abstenir !
AVANT PROPOS :
La troisième campagne de dons pour sauver RT Flash est Ouverte
Suite à un incident informatique, vous, qui êtes abonnés, avez été très nombreux, la semaine dernière, à ne pas recevoir RT Flash. Aussi, je mets à nouveau en ligne, l'avant-propos que j'avais alors voulu vous adresser.
J'ai créé, en 1998 , RT Flash, Lettre électronique hebdomadaire dédiée à la Recherche et aux Nouvelles Technologies. Cette Lettre a toujours été gratuite et n'a jamais accepté de publicité. Pendant 20 ans, jusqu'en 2018, l'Association ADIST, qui depuis l'origine gère RT Flash, recevait chaque année près de 50.000 euros sous forme de subventions de 5.000 ou 2500 euros qui lui étaient versées chaque année par les grands organismes français de Recherche. Mais depuis 2019, pour des raisons d'économie imposées par le Budget, ces organismes ont cessé de verser leur subvention annuelle. Pour survivre, RT Flash s'est alors tourné, depuis 2019, vers ses lecteurs qui reçoivent gratuitement notre Lettre chaque semaine. En raison de son comportement exemplaire, lettre gratuite et sans publicité, l'Association ADIST a reçu la qualification d'association d'intérêt général. Ceci signifie, si le donateur paie des impôts sur le revenu, qu'il pourra déduire 20 euros sur sa déclaration d’impôts s’il a fait don de 30 euros à l'association ADIST. Si le donateur avait les moyens de faire un don de 300 euros à l'ADIST, ce don ne lui coûterait que 100 euros en finale. Cela fait la troisième année que nous faisons ainsi appel aux dons des lecteurs de RT Flash. Grâce à une incroyable gentillesse de nos lecteurs, nous sommes, à chaque fois, parvenus à atteindre le but que nous nous étions fixé : 15.000 euros en 2019, 20.000 euros en 2020. Ayant moins de dépenses à faire en cette année 2021, notre objectif est fixé, cette fois-ci, à 15.000 euros.
Sans vous tous qui acceptez de faire des dons, RT Flash n'existerait plus. Nous avons bien conscience de la précarité de notre situation mais vous remercier chaque semaine avec des articles et un édito dont les rédacteurs sont totalement bénévoles nous apporte beaucoup de joie et de bonheur.
René Trégouët Sénateur Honoraire Créateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash
Si vous voulez aider RT Flash, lettre d'informations scientifiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant :
Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 %.
Editorial :
Au cours de ce siècle, l’Humanité va devoir relever un triple défi en matière de production alimentaire : nourrir une population mondiale qui comptera sans doute deux milliards d’humains en plus dans 30 ans, augmenter d’au moins 70 % la production alimentaire mondiale, réduire l’impact sur l’environnement et le climat des productions agricoles et enfin, garantir aux consommateurs une qualité nutritionnelle et sanitaire suffisante des aliments.
Pour relever un tel défi, de récentes études montrent que les progrès de l’agronomie, la mise en culture de nouvelle terres (de plus en plus difficile, compte tenu des conflits d’usages liés à l’urbanisation croissante et aux productions agricoles à finalité énergétique) et le recours aux outils numériques ne suffiront pas. Il faudra également aller vers une profonde évolution du régime alimentaire mondial. Une grande étude britannique réalisée il y a deux ans par l’Université de Londres, et intitulée « La grande mutation alimentaire du XXIeme siècle », préconise de produire et manger deux fois moins de sucre et de viande rouge, et deux fois plus de légumes, fruits et noix. Cette étude souligne également le fait que le système alimentaire mondial reste à ce jour « le principal émetteur de gaz à effet de serre, le principal facteur de perte de biodiversité et la principale cause de prolifération d’algues mortelles le long des côtes et des voies navigables ». Autre constat alarmant, l’agriculture, qui occupe aujourd’hui près de la moitié de la surface terrestre, utilise également 70 % des réserves mondiales d’eau douce.
L’étude rappelle par ailleurs que la production et la consommation de bœuf n’est pas soutenable à long terme. Elle est trop consommatrice de terres et de ressources : il faut en moyenne au moins cinq kilos de grains et 15 000 litres d’eau pour produire un kilo de viande. Parallèlement, les chercheurs préconisent, pour des raisons à la fois environnementales et sanitaires, un doublement de la consommation de légumineuses telles que les pois et les lentilles, mais aussi des légumes, des fruits et des noix.
Une étude internationale publiée en 2018 proposait également de privilégier les régimes végétaliens, afin d’économiser les ressources en eau et de réduire de moitié les émissions de gaz à effet de serre générées par l’industrie alimentaire. Ces recherches recommandaient aussi d’améliorer les techniques agricoles, en accélérant notamment le passage à l’agriculture de précision utilisant la robotique, l’IA, les drones et les images satellitaires, afin de pouvoir augmenter la productivité, tout en réduisant l’utilisation d’engrais et l’empreinte carbone (Voir Nature).
Mais pour beaucoup de scientifiques, ces nécessaires mutations agronomiques, techniques, environnementales, ne suffiront pas à faire face à la forte augmentation de la demande alimentaire mondiale. Pour parvenir à nourrir correctement, et de manière supportable pour l’environnement et le climat, les 9,7 milliards d’habitants attendus en 2050, l’agriculture et l’élevage devront sortir de leur cadre actuel, pour être complétés par trois nouvelles et prometteuses sources de protéines que peuvent nous fournir la mer, les insectes et les micro-organismes.
La mer contribue déjà de manière décisive à nourrir les hommes. En 2016, 171 millions de tonnes de poissons et crustacés ont été pêchés pour la consommation, ce qui représente en moyenne 20 kg de produits alimentaires d’origine marine par an et par terrien. D'ici 2030, ce chiffre devrait dépasser les 200 millions de tonnes. Selon la FAO, 150 grammes de poisson suffisent à couvrir les besoins journaliers en protéines d'un adulte. L’Asie consomme déjà les deux tiers du poisson pêché dans le monde et une étude publiée en 2015 a révélé que la sécurité alimentaire mondiale était assurée à 10 % par le poisson (Voir Springer).
Reste que la pêche industrielle et intensive en mer des poissons sauvages est en train d’atteindre ses limites, et menace de plus en plus le renouvellement et la pérennité des ressources halieutiques. Face à cette situation, les poissons d'élevage, élevés en eaux douces ou dans des cages piscicoles en mer, sont appelés à prendre une part prépondérante dans l’exploitation des ressources marines à des fins alimentaires. Dans un rapport de 2016, la FAO soulignait que 47 % des produits de la mer que nous consommons proviennent déjà de l'aquaculture et, selon la Banque Mondiale, 62 % des produits de la mer seront issus de l'élevage d'ici 2030. En 2017, une autre vaste étude réalisée par des chercheurs de l’Université de Californie, intitulée « Cartographier le potentiel mondial de l’aquaculture », avait montré comment l'aquaculture pourrait être développée à plus grande échelle pour répondre à la demande mondiale en produits issus de la mer. L'étude préconisait l’utilisation de certaines zones des océans, comme celles situées à près de 200 mètres de profondeur, pour élever certaines espèces de poissons. Selon ces recherches, cette nouvelle aquaculture rationnalisée serait en mesure de produire à terme 15 milliards de tonnes de poissons par an, soit environ quatre kg de produits de la mer par jour et par habitant en 2050 (Voir Nature).
Une autre étude, également réalisée par des chercheurs de l'Université de Californie à Santa Barbara (États-Unis) et intitulée « Les performances environnementales de l’alimentation marine », montre qu’il faut absolument augmenter la part d'alimentation “bleue” (poisson, mais aussi algues, fruits de mer coquillages), si nous voulons réussir à nourrir correctement toute l’humanité, de manière supportable pour le climat et l’environnement (Voir Nature). Le rapport souligne que des produits de la mer comme le tilapia (poisson élevé en Asie, Amérique du Sud), le saumon, le poisson-chat et la carpe, ont une faible empreinte-carbone, comparable à celle du poulet, viande dont l'impact carbone est le plus faible. Pour les animaux et végétaux marins plus petits, comme les sardines, les anchois, les mollusques ou les algues, l'empreinte carbone est encore plus réduite et est toujours inférieure à celle de n’importe quelle viande produite à partir d'animaux terrestres. L'étude rappelle enfin que l’exploitation d’environ 2.500 espèces de poissons, de mollusques et de crustacés, de plantes aquatiques et d'algues, assure déjà des moyens de subsistance et des revenus à plus de 100 millions de personnes et permet de nourrir correctement un milliard de personnes dans le monde.
Les Algues (plus de 9000 espèces répertoriées, dont une vingtaine seulement est consommée) représentent également un immense potentiel, encore largement sous-exploité, pour produire demain les protéines durables et saines dont l’humanité aura besoin. Leur production, essentiellement asiatique, est passée de 2 à 30 millions de tonnes depuis 50 ans. En France, le volume d’algues fraîches récolté annuellement atteint les 80.000 tonnes, ce qui fait de notre pays le second producteur européen, derrière la Norvège. Lorsqu’elle est bien optimisée, la culture des algues peut fournir des quantités considérables de biomasse, avec des rendements 20 fois supérieurs à ceux du blé, du maïs ou du colza, et, atout décisif, l’algoculture n’a pas besoin de terres agricoles pour prospérer… En portant, ce qui est envisageable, la production mondiale annuelle d’algues comestibles à 100 millions de tonnes d’ici 2050, et compte tenu de leur forte concentration en protéines (20 % en moyenne), il serait possible de fournir à chaque terrien environ 10 % de son apport protéique journalier, une contribution décisive pour nourrir un monde qui comptera 9,5 milliards d’humains à cette échéance.
La deuxième grande source d’alimentation pour le futur est celle constituée par l’entomophagie, c’est-à-dire la consommation d'insectes par l'être humain. Selon la FAO, la consommation d’insectes, bien qu’encore marginale dans nos pays développés, concerne au moins 2,5 milliards de personnes au niveau mondial, essentiellement concentrées en Asie, en Afrique et en Amérique latine, où la consommation d’insectes est depuis longtemps culturellement admise. Les insectes comestibles représentent dans de nombreux pays en voie de développement une source importante de protéines : 100 grammes de chenilles séchées représentent environ 53 grammes de protéines, 15 % de lipides et 17 % de glucides. Fait remarquable, les insectes sont plus riches en protéines et en lipides que le bœuf et le poisson. Ils sont en outre si riches en minéraux – potassium, calcium, magnésium, phosphore, fer – et en vitamines que 100 grammes d’insectes pourraient fournir la totalité des besoins quotidiens pour ces nutriments.
Autre atout majeur, pour produire un kg de protéine à partir d’insectes, il faut 100 fois moins de surface agricole que pour un kg de protéines animales ; en outre les insectes ont besoin de six fois moins de nourriture que les bovins, quatre fois moins que les moutons et deux fois moins que les porcs et les poulets, pour produire la même quantité de protéines. Sur le plan environnemental, ils émettent cinq à dix fois moins de gaz à effet de serre et d'ammoniac que l'élevage conventionnel, et peuvent être cultivés en utilisant et en recyclant des déchets organiques. Actuellement, les insectes sont principalement produits et utilisés comme une source de protéines dans l’alimentation animale mais il est très probable, selon nombre de scientifiques, que leur consommation alimentaire directe par l’homme augmente de manière considérable au cours de ce siècle.
On le sait peu, mais le leader mondial de la production industrielle d’insectes est français : il s’agit de l’entreprise Ynsect, qui a inauguré en mai dernier, à Amiens, la plus grande ferme verticale au monde – 46 000 m2 pour 36 mètres de haut – où seront produits plus de 100 000 tonnes par an, à partir d’une seule espèce, le ver de farine. Fort de la décision européenne, qui autorise depuis le début de l’année les farines à base d’insectes pour l’alimentation animale, Yinsect met en avant sa solution innovante et écologique pour nourrir les animaux, sans importer du soja, et compte bien convaincre les autorités européennes d’autoriser rapidement les aliments à base d’insectes pour l’alimentation humaine.
Enfin, la troisième source, incontestablement la plus surprenante et la plus futuriste, qui émerge pour améliorer, tant en quantité qu’en qualité, l’alimentation humaine, est celle des micro-organismes, qui s’organisent en microbiotes et en microbiomes. Dans le premier cas, le microbiote désigne l’ensemble des micro-organismes qui cohabitent en un même endroit, notre intestin, par exemple. Le microbiome renvoie pour sa part à une dimension écosystémique qui intègre les interactions entre êtres vivants. A ce titre, les microbiomes sont naturellement associés à l’ensemble de la chaîne agroalimentaire, de la production au consommateur.
Bien que nous n’en soyons pas toujours conscients, les micro-organismes sont déjà largement utilisés pour contribuer à améliorer l’efficacité des systèmes de production et la qualité et la sécurité de la production alimentaire. Ils peuvent non seulement limiter les risques de contamination dans les chaînes de production de l’industrie alimentaire, mais aussi prévenir les maladies dans les cultures, le bétail et l’aquaculture. Ils peuvent également prolonger la durée de conservation des denrées. Les progrès de la biologie et de la chimie ont permis d’identifier de nombreux micro-organismes inoffensifs, capables de conférer au produit final des propriétés nouvelles et bénéfiques, tant en matière de goût que sur le plan nutritionnel et sanitaire. A titre d’exemple, il est à présent bien établi scientifiquement que la consommation régulière d’aliments fermentés, contenant un grand nombre de micro-organismes vivants (dont les fameux probiotiques), a des effets très positifs sur la santé, la longévité et la prévention de nombreuses pathologies, y compris mentales.
Mais ce qu’on sait moins, c’est que ces micro-organismes peuvent également être cultivés et utilisés pour produire directement de nouvelles ressources alimentaires. Cette production d’aliments dérivés de la biomasse microbienne existe déjà, et se matérialise par la production industrielle des protéines unicellulaires (single-cell protein, ou SCP) à partir d’algues, de champignons ou de bactéries. Jusqu’à présent, ces microbes étaient essentiellement cultivés à partir de produits dérivés de l’agriculture comme le glucose, ou des ressources d’origine fossiles comme le méthane. Mais récemment, une étude internationale remarquée a montré qu’il était possible de produire de manière industrielle des protéines unicellulaires à l’aide de l’énergie solaire. Cette énergie est captée et convertie en électricité par des panneaux photovoltaïques ; elle est ensuite transformée en énergie chimique par conversion électrochimique et stockée dans un donneur d’électrons ou une source de carbone ; la croissance microbienne permet ensuite d’emmagasiner cette énergie chimique dans la biomasse ; enfin, une étape de filtration permet d’éliminer les nucléotides, acides gras et glucides afin de ne conserver que les protéines recherchées. Ces recherches montrent, qu’à production de protéines équivalente, une telle solution permet d’utiliser seulement 10 % de la surface au sol occupée par des plantations de soja, le type de culture végétale considérée actuellement comme le plus efficace (Voir PNAS).
Dorian Léger (Institut Max Planck), qui a dirigé ces travaux, souligne « que les protéines microbiennes sont également bénéfiques en tant que complément à nos régimes alimentaires, car elles constituent une source de protéines de haute qualité composée de tous les acides aminés essentiels, ainsi que de vitamines et de minéraux. Si vous avez 10 kilomètres carrés de champs de soja en Amazonie, vous pourriez en théorie fabriquer ces protéines microbiennes avec un seul kilomètre carré de panneaux solaires et reboiser les neuf autres ».
Et cette alimentation solaire ne relève plus de la science-fiction. La société finlandaise Solar Foods, basée à Helsinki, commercialisera ainsi, fin 2022, un nouveau produit appelé Solein, une protéine déshydratée, sous forme de farine, produite à partir de microbes vivants, de CO2, d’eau et d’électricité renouvelable. Présentée dans un premier temps comme une méthode de production de nutriments à destination des astronautes pour des missions longues, la Solein sera ainsi bientôt proposée au grand public sous forme d’une large gamme de produits transformés, aux qualités nutritionnelles et sanitaires soigneusement contrôlées.
Solar Foods est parti du constat que la production croissante de soja riche en protéines et destiné à l’alimentation animale, était une cause majeure de la pollution des sols et de déforestation dans certaines régions du monde, comme l’Amazonie. Cette société mise donc sur l’utilisation de l’énergie solaire pour transformer le dioxyde de carbone en produits chimiques utilisables pour la production de bactéries sélectionnées et pouvant être consommées sans aucun danger par l’homme. Cette société rappelle qu’à elle seule, l’agriculture occupe environ un tiers de la surface terrestre totale, provoque 80 % de la déforestation mondiale et consomme 70 % des ressources en eau de la planète.
Solar Foods veut donc mettre sur le marché dès cette année une source de production de protéines permettant de préserver les ressources naturelles. Ces protéines seront issues d‘ un processus naturel de fermentation proche de celui permettant la fabrication du vin ou de la bière. Mais la différence essentielle et novatrice, c’est que le sucre, utilisé dans la fermentation alcoolique, est ici remplacé par le CO2. Le concept Solein consiste à utiliser l’énergie solaire pour décomposer l’eau par électrolyse dans un bioréacteur, créant ainsi de l’hydrogène qui alimente en énergie les microbes également nourris de carbone. Ces derniers produisent alors une substance sous forme de poudre, qui se compose d’environ 20 % de glucides, 10 % de graisse et 65 % de protéines. Ce substrat à haute valeur nutritive peut alors entrer dans la composition de divers produits alimentaires, ou être consommé comme un substitut à la viande ou au soja.
Selon Solar Foods, Solein serait bien plus respectueux de l’environnement et du climat que la viande, et ses substituts végétaux. Il ne faudrait en effet que dix litres d’eau pour produire 1 kg de Solein, au lieu de 2 500 litres d’eau pour produire 1 kg de farine de soja et près de 15 500 litres d’eau pour produire 1 kg de viande de bœuf. La production de Solein serait également dix fois plus efficace que la production de soja en matière d’utilisation du sol et permettrait de réduire drastiquement la déforestation.
On le voit, nourrir correctement les 9,5 milliards d’humains qui peupleront notre planète dans trente ans, tout en respectant davantage l’environnement et en luttant contre le changement climatique, représente un immense défi politique, social et technologique. Heureusement, notre Terre possède une richesse du vivant qui est tout simplement prodigieuse et presque incalculable : en 2016, une remarquable étude dirigée par Jay Lennon et Kenneth Locey (Université de l’Indiana) a estimé, en se basant sur de nouveaux outils de calcul, que le nombre total d’espèces vivantes sur Terre, y compris les bactéries et micro-organismes, pourrait bien atteindre les 1000 milliards…
Si nous parvenions à mieux comprendre ce fabuleux microbiome planétaire, puis à développer et gérer de manière durable et équitable les nouvelles ressources alimentaires que je viens d'évoquer, nous pourrions enfin éradiquer la malnutrition et assurer à tous une alimentation saine et équilibrée. Ce défi est d’autant plus important que, même si la proportion d'êtres humains sous-alimentés a pratiquement été divisée par trois depuis 1970, ce qui est remarquable, compte tenu de l’accroissement démographique mondial, la part des habitants de notre terre qui reste victime de la malnutrition stagne depuis 2014 autour de 10 %. Nous devons donc tout mettre en œuvre, en sachant combiner de manière intelligente et audacieuse les politiques énergétiques, climatiques et agricoles, pour écarter définitivement, avant le milieu de ce siècle, ce spectre de la faim qui hante l’humanité depuis trop longtemps…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des robots sur le point de récolter des légumes dans les serres ? C’est du moins l’objectif de l’Institut national d’optique (INO) du Québec, qui collabore sur un projet d’automatisation pour la cueillette de champignons et de concombres. « Pour notre part, on fait les yeux du robot. Cela permet de lui donner de l’intelligence. Il pourra ainsi identifier le légume dans une serre et être en mesure de le prendre avec sa main robotisée sans l’écraser », indique au Journal le PDG de l’INO, Alain Chandonnet.
Ce dernier est d’avis que cette technologie pourrait venir pallier la pénurie de main-d’œuvre chez les producteurs en serre. Grâce à des systèmes de vision à la fine pointe de la technologie, ces robots devraient également avoir la capacité d’identifier les concombres mûrs pour la cueillette.
L’INO, qui est spécialisé en optique et en photonique, travaille sur ce projet depuis environ deux ans en partenariat avec le Vineland Research and Innovation Centre, en Ontario.
« Nous fournissons la technologie et Vineland fournit les connaissances sur les végétaux », explique M. Chandonnet. Des prototypes de robots autonomes sont déjà sur roues. « Oui, il y a des tests », poursuit-il. Le dirigeant de l’organisation de Québec est d’avis que cette technologie pourra un jour être appliquée à l’ensemble des cultures en serre, ou presque.
« Progressivement, il faut augmenter le catalogue de fruits et de légumes accessibles », affirme M. Chandonnet. Selon l’INO, le déploiement de tels robots dans le secteur alimentaire devrait permettre aux producteurs d’augmenter leur capacité de production ainsi que réduire éventuellement leurs pertes. « Il y a entre 20 % et 25 % de la capacité de culture qui est présentement sous-exploitée par manque de main-d’œuvre. On pourrait augmenter significativement la quantité d’aliments produits », estime M. Chandonnet.
« Avec les robots, cela nous permettrait d’exploiter le plein potentiel des cultures. L’objectif est, qu’à terme, on ne s’empêche plus de semer parce qu’on n’a pas les personnes pour récolter », poursuit-il, espérant que cette technologie soit commercialisée d’ici deux ou trois ans. Cet outil pourrait s’avérer un atout alors que le gouvernement Legault veut accroître l’autonomie alimentaire du Québec, qui tourne aux alentours d’un peu plus de 50 %.
L’INO a également travaillé ces dernières années avec l’entreprise Lapalme Conception Mécanique sur le développement d’un prototype de robot, baptisé SAMI (système agricole multifonctionnel intelligent), pour épauler les agriculteurs dans les champs. Des essais préliminaires ont été réalisés au cours de l’été 2020 dans un champ de brocolis.
Article rédigé par Georges Simmonds pour RT Flash
Le Journal de Québec
|
|
|
|
|
|
|
|
Amazon vient de présenter officiellement, le 29 septembre dernier, son robot domestique, Astro. Cet engin à roulettes peut cartographier une maison et répondre à des commandes vocales. Il est équipé d'une caméra télescopique qu’il peut dégainer quand vous le souhaitez. Cela lui offre un capteur vidéo à une hauteur d’un mètre, qui permet de vérifier si une serrure est bien fermée, si le four a bien été éteint, etc. Il peut aussi servir comme terminal de visio qui vous suit partout. Il peut aussi reconnaître des visages, apprendre les habitudes des membres du ménage et rappeler à chacun ses activités. La visioconférence est évidemment au programme avec un écran de 10 pouces qui donne également sa personnalité au robot, avec des émotions véhiculées par ses yeux et ses hochements de tête.
Astro peut même transporter de petits objets jusqu'à son destinataire. Amazon, qui ne perd pas le sens des affaires, a pensé à associer à Astro plusieurs services payants comme Ring Protect Pro pour une surveillance proactive du foyer et la sauvegarde de vidéos, ou Alexa Together pour s'occuper à distance de personnes proches âgées et contacter un professionnel de santé en cas d'urgence. Avec Alexa Guard, Astro peut en outre détecter le son d'un détecteur de fumée, d'une alarme au monoxyde de carbone, d'un bris de verre et envoyer une alerte sur le smartphone.
Haut de 60 centimètres et pesant moins de 10 kilos, il coûtera 1.000 dollars aux Etats-Unis dans un premier temps – pour quelques utilisateurs choisis par Amazon – puis environ 1.450 dollars. « Quand vous êtes en dehors de la maison, vous pouvez l’utiliser pour patrouiller chez vous », a déclaré Dave Limp, un vice-président d’Amazon, dans la vidéo de promotion diffusée récemment. Astro pourrait aussi servir à vérifier que tout va bien chez des proches âgés, avec sa caméra périscope.
Dave Limp précise que les utilisateurs pouvaient verrouiller les objectifs et micros du robot, qui émet des sons et affiche des messages, si jamais quelqu’un essaye de le pirater. Il a aussi affirmé qu’Amazon n’avait pas accès aux caméras à distance d’Astro, et donc « ne pourrait jamais donner cet accès à la police ou aux services d’urgence ».
Article rédigé par Georges Simmonds pour RT Flash
Amazon
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La Région Occitanie a voté une première enveloppe budgétaire visant à déployer une première flotte d’autocars à hydrogène. L’offre sur le segment des autocars à pile à combustible étant aujourd’hui inexistante, la région a décidé de s’orienter vers une opération de rétrofit. Menée avec Safra, celle-ci permettra de convertir une quinzaine d’autocars diesel à l’hydrogène. La mise en service du premier autocar à pile à combustible est prévue pour début 2023. Les tests seront organisés sur différentes lignes du réseau régional Lio.
Au total, la Région prévoit de mobiliser 7,2 millions d’euros pour cette expérimentation unique au monde. Initiée au premier semestre 2021, elle devrait s’étendre jusqu’à fin 2023. Cette expérimentation entre dans le cadre du plan Hydrogène vert adopté en 2019 par la région Occitanie. Doté d’une enveloppe de 150 millions d’euros, celui-ci vise à accélérer l’émergence de solutions hydrogène sur le territoire. Sur le volet mobilité, la Région a notamment lancé le projet Corridor H2. Soutenu par l’Europe, il vise à déployer 8 stations de distribution et une centaine de véhicules lourds à hydrogène sur le territoire d’ici 2023.
Article rédigé par Georges Simmonds pour RT Flash
H2
|
|
|
|
|
|
|
|
Alors que la plupart des batteries fonctionnent au lithium et comprennent des matériaux rares et coûteux comme le cobalt ou le nickel, une start-up américaine entend conquérir le marché du stockage d'énergie avec un matériau connu depuis la préhistoire et qui est l'un des plus abondants sur Terre : le fer.
Soutenue par des investisseurs prestigieux, dont Breakthrough Energy Ventures (financée par Bill Gates), Jeff Bezos ou ArcelorMittal (l'un des principaux producteurs de minerai de fer dans le monde), Form Energy affirme qu'elle produira bientôt une batterie capable de stocker l'électricité durant 150 heures, permettant de « se passer complètement des capacités de production thermique comme le charbon et le gaz naturel », selon son directeur général, Mateo Jaramillo.
Ce dernier, qui a notamment participé au développement de la batterie domestique Powerwall de Tesla, entend stocker l'électricité non pas dans des piles au lithium, mais dans des billes de fer, un matériau low cost, non toxique et ininflammable. Mais l'avantage décisif de ces nouvelles batteries est leur coût, qui est dix fois plus faible que celui des batteries au lithium.
Le principe de cette batterie air-fer est en apparence ridiculement simple : il s'agit d'oxyder le fer en rouille lors de la décharge, puis de reconvertir la rouille en fer lors de la charge. Chaque module, de la taille d'une machine à laver, est rempli d'un électrolyte à base d'eau, où se trouvent les électrodes en fer. Ces modules sont regroupés dans d'énormes blocs, qui peuvent couvrir plusieurs hectares selon les besoins.
Il reste que ce type de batteries, lourdes et volumineuses, n'est pas indiqué aux constructeurs automobiles ou aux particuliers, Il vise essentiellement le marché en plein essor des installations solaires et éoliennes qui produisent de l'énergie de façon intermittente et doivent pouvoir stocker à faible coût de grosses quantités d'électricité, pour les réinjecter dans le réseau pendant les pics de demande.
La start-up prévoit de commercialiser en 2023 une batterie d'un mégawatt capable de se décharger en continu pendant plus de six jours et affirme être en pourparlers avec plusieurs services publics. Mais la bonne vieille batterie semble pour l'instant bien résister à cette prolifération d'idées : d'après l'Agence internationale de l'énergie, les capacités de stockage d'énergie par batterie devraient quasiment être multipliées par dix d'ici 2040, pour atteindre 220 gigawatts. De quoi assurer une petite place au soleil à Forum Energy.
Article rédigé par Georges Simmonds pour RT Flash
WSJ
|
|
|
|
|
|
|
|
Des scientifiques de l’Institut indien d’éducation et de recherche scientifique (IISER), de Calcutta, et de l’Institut indien de technologie, ont réussi à synthétiser un matériau organique cristallin avec une structure moléculaire interne unique qui se répare spontanément quand elle est endommagée. Comprenez que si cette structure se brise sous la pression d’une poussée ou d’un choc, elle se remettra en place dès que la pression cessera.
A l’aide d’une pointe, les chercheurs ont provoqué des cassures légères ou sérieuses dans ce matériau et observé la surface endommagée revenir automatiquement à son état originel en l’espace de quelques secondes seulement.
Ce n’est pas la première fois qu’une équipe d’universitaires réussit à développer un matériau qui se répare seul. Mais, jusqu’à présent, cette capacité « magique » a été atteinte sur des matériaux mous et amorphes, leur structure interne étant irrégulière et parsemée d’imperfections.
Réussir à atteindre ce même objectif sur une structure cristalline était toujours un défi. Il est en effet bien plus dur de reconstituer un ensemble moléculaire organisé, régulier et dense. Par ailleurs, il est souvent nécessaire de stimuler le matériau, via de la lumière, de la chaleur ou une réaction chimique, pour qu’il se répare. Or, justement, ce n’est pas le cas ici. La réparation est automatique, sans intervention.
Ce « matériau autoréparant est dix fois plus dur que les autres », explique Chilla Malla Reddy, professeur de chimie de l’IISER, en charge du projet, et il appartient à la famille des cristaux piézoélectriques, omniprésents dans les mondes industriel et scientifique, des microscopes aux robots, en passant par les appareils envoyés dans l’espace.
Néanmoins, ce matériau solide a la particularité de présenter un arrangement polaire tête-bêche (extrémité positive face à l’extrémité négative). Cela signifie que lorsqu’une fracture apparaît dans sa surface, des potentiels électriques opposés sont produits.
« Ces charges électriques permettent alors une recombinaison instantanée, et les cristaux cassés se réparent d’eux-mêmes sans intervention externe », expliquent les chercheurs dans une version simplifiée de leur publication présentée dans la revue Science. Les potentiels électriques agissent comme une force qui rétablit l'ordre dans la structure.
Et si la vitesse de réaction d’à peine quelques secondes vous surprend, sachez que les composants du matériau se remettent en place à une vitesse plutôt fulgurante : « Pendant la réparation, les éléments cassés se déplacent selon un mouvement similaire à une aile d’abeille avec une accélération comparable à celle de voitures », commentent les chercheurs.
Si le domaine scientifique et l’industrie auront certainement de nombreuses idées pour utiliser ce nouveau type de cristal, ses inventeurs voient un autre usage bien plus terre à terre et quotidien, dans des produits utilisés chaque jour par des milliards de personnes : « un tel matériau pourrait être utilisé pour les écrans de téléphones mobiles, pour se réparer seuls en cas de chute et de bris », indiquent simplement les chercheurs.
Article rédigé par Georges Simmonds pour RT Flash
01Net
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Compte tenu des projections à court terme des émissions de gaz à effet de serre, il faudra extraire le dioxyde de carbone de l'atmosphère pour espérer atteindre les objectifs climatiques fixés par les Accords de Paris en 2015. Ces émissions « négatives » soulèvent un incroyable défi. Comment développer, dans les délais impartis et à l'échelle de la planète, des technologies robustes, peu onéreuses et acceptables par tous ?
Les technologies d'émissions négatives (NET) naturelles les plus emblématiques consistent à renforcer les puits de carbone des écosystèmes terrestres, comme la plantation d'arbres, et à produire de la bioénergie avec capture et stockage de CO2.
La NET, objet de cette étude, consiste à amender les sols avec des minéraux qui absorbent du CO2, c'est-à-dire à accélérer le cycle géologique du carbone. Le basalte est une roche abondante qui, sous forme de poudre, réagit avec le dioxyde de carbone de l'atmosphère et l'élimine selon deux voies. D'une part, le CO2 forme de l'acide carbonique qui dissout le basalte et forme des ions bicarbonates (HCO3-) qui sont ensuite transportés par les rivières et stockés dans les océans. D'autre part, le basalte libère en se dissolvant des nutriments comme le phosphore, qui fertilisent les sols et facilitent la croissance des plantes, la production de biomasse, et in fine, le stockage du carbone dans de nombreux écosystèmes.
En s'appuyant sur des simulations numériques, une équipe internationale menée par le LSCE a quantifié pour la première fois la masse de carbone potentiellement stockable par l'amendement des sols à grande échelle avec de la poudre de basalte riche en phosphore. À la différence des études précédentes de ce type portant sur l'amendement de terres agricoles, les chercheurs ont modélisé un scénario de plus grande envergure, avec un épandage global sur tous types de terrains.
Ils montrent que près d'une gigatonne de CO2 (109 t) par an pourrait être éliminée de l'atmosphère à un coût modéré (150 $ par tonne de CO2). Cette simulation d'un scénario idéal permet d'estimer le potentiel biophysique et le temps caractéristique de cette NET. Elle révèle que l'effet est maximal dans les régions où les sols sont appauvris.
Selon les chercheurs, l'amendement des sols par le basalte a été sous-estimé jusqu'à présent et cette option devrait être étudiée sérieusement dans le cadre de l'atténuation du changement climatique par la gestion des terres. Pour parvenir à l'objectif visé, il faudrait extraire du basalte à grande échelle et déployer des systèmes d'épandage aéroportés à faible empreinte carbone comme des drones ou des dirigeables, dans des zones reculées. Cependant, des effets collatéraux indésirables, analysés dans l'étude – comme le risque d'eutrophisation de certaines zones sensibles – ne peuvent encore être écartés.
Article rédigé par Georges Simmonds pour RT Flash
CEA
|
|
|
|
|
|
|
|
Deux régions du globe ont déjà atteint un seuil moyen de température invivable pour les humains : Jakobabad au Pakistan, et Ras Al Khaimah, dans le golfe Persique. Le cocktail chaleur et humidité peut être mortel pour l'organisme. « Quand l'air est sec, (…) on est capable de résister à des chaleurs extrêmes, 60 degrés, jusqu'à 100 degrés si ça ne dure pas trop longtemps », indique la journaliste Valérie Heurtel. Le corps est équipé d'un thermostat naturel, qui a pour rôle de maintenir la température à 37 degrés. « Au contact d'un air sec, la sueur s'évapore, et c'est cette évaporation qui nous rafraîchit », ajoute-t-elle. « Dans un air saturé en humidité, la sueur a du mal à s'évaporer, résultat le corps est en surchauffe ».
Que risque-t-on à vivre dans des conditions aussi extrêmes ? « La température de l'intérieur va commencer à grimper, (…) on peut commencer à avoir des troubles de la vision, des vertiges, des troubles neurologiques, ça peut terminer par du coma, des convulsions, et ça peut aboutir à des complications cardiaques ou rénales gravissimes », explique le Docteur Laurent Uzan, cardiologue du sport.
Si le Pakistan et le golfe Persique ont déjà franchi le pont de bascule, d'autres régions du globe n'en sont pas loin, comme la Chine ou une grande partie de l'Inde. Les plus menacées sont les régions tropicales et les zones côtières, où les fortes chaleurs se mêlent à l'évaporation de la mer. Seule solution pour enrayer la machine : contrôler nos émissions de gaz à effet de serre.
Article rédigé par Georges Simmonds pour RT Flash
New Scientist
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une entreprise de Sherbrooke, au Canada, spécialisée en neuro-imagerie, a développé une nouvelle technologie qui permettrait de mieux cartographier l’évolution de la maladie d’Alzheimer dans le cerveau. L’entreprise Imeka a conclu un important partenariat avec la pharmaceutique américaine INmune Bio.
Le professeur à l’Université de Sherbrooke et directeur scientifique chez Imeka, Maxime Descôteaux, explique que cette technologie permet de voir si un médicament ou une nouvelle molécule est efficace pour traiter la maladie, sans utiliser de technique invasive. Cette pharmaceutique cherchait un marqueur qui pourrait montrer l’impact de leur molécule, explique-t-il. « Ça fait des années que l’on développe cette technologie. Il y a un volet d’éducation, il fallait les convaincre que ça marche. Tout est basé sur l’IRM. Il n’y a pas d’injection.
La méthode utilisée cible plus particulièrement la matière blanche, soit tout le câblage qui connecte les différentes régions du cerveau entre elles. Avec la maladie, ces câbles peuvent se briser. C’est très porteur d’espoir. Ça va nous permettre de suivre ce qui se passe dans le cerveau sans ouvrir le cerveau ».
Martin Descôteaux ajoute que les retombées de cette nouvelle technologie sont majeures pour l'avancement de la compréhension de la maladie, mais aussi pour d'autres atteintes cognitives ou dégénératives du cerveau. Cette technologie pourrait permettre de faire des recherches sur toutes les anomalies du cerveau comme la sclérose en plaques, le Parkinson et même sur les commotions cérébrales, indique-t-il.
Article rédigé par Georges Simmonds pour RT Flash
Radio Canada
|
|
|
|
|
|
|
|
Que se passe-t-il dans notre cerveau lorsque nous apprenons à faire des mathématiques ? Si l’on connaissait déjà des régions cérébrales impliquées dans le traitement de tâches numériques, des neuroscientifiques britanniques ont voulu en savoir plus sur leurs dynamiques tout au long de l’apprentissage. Ils ont mesuré les taux de deux neurotransmetteurs, des molécules chargées de la transmission de l’influx nerveux entre les neurones, dans la région du sillon intrapariétal gauche.
Située dans le cortex pariétal, cette zone avait déjà été identifiée pour être impliquée dans les difficultés d’apprentissage des mathématiques, ou au contraire chez les individus présentant des capacités exceptionnelles. Mais les scientifiques ont constaté que les niveaux de ces médiateurs chimiques, le GABA et le glutamate, n’étaient pas toujours corrélés de la même manière en fonction de l’âge des individus.
Alors que les enfants bons en mathématiques présentaient de hauts taux de GABA, les adultes performants en possédaient peu. Inversement, chez les enfants, les hauts taux de glutamate étaient associés à une mauvaise performance, alors que c’était le cas pour les bas taux de glutamate chez les adultes.
Ces chercheurs se sont intéressés au GABA et au glutamate car ce sont deux neurotransmetteurs très impliqués dans la plasticité cérébrale. Ils peuvent en effet exciter ou au contraire inhiber l’activité du neurone sur lequel ils se fixent. Ainsi, ils renforcent ou affaiblissent des connexions synaptiques, les connexions entre neurones.
C’est l’un des mécanismes principaux de l’apprentissage. L’équipe a fait passer deux tests d’arithmétique à un an et demi d’intervalle à 255 sujets représentant une large gamme d’âges, les plus jeunes ayant six ans et les plus âgés étant étudiants à l’université. Ils ont par ailleurs mesuré les taux de neurotransmetteurs grâce à de la spectroscopie par résonance magnétique, ce qui leur a permis de constater cette étonnante inversion avec l’âge. « C’est une étude assez nouvelle », juge André Knops, neuroscientifique au CNRS à l’Université de Paris. « Pour la première fois, on fait le lien entre des fonctions cognitives très utiles dans le quotidien et ces niveaux de neurotransmetteurs sur le long terme ».
Le GABA et le glutamate étaient déjà connus comme des neurotransmetteurs importants dans des tâches simples, comme apprendre un chemin dans un labyrinthe chez des souris. Les auteurs voulaient désormais savoir s’ils étaient aussi impliqués dans des fonctions cognitives complexes. Les mathématiques constituaient un domaine intéressant pour tenter de répondre à cette question. Ils envisagent désormais que leurs résultats, l’inversion des taux de neurotransmetteur avec l’âge pour une même performance, puissent se retrouver pour d’autres fonctions. André Knops analyse : « C’est une idée qui peut se défendre, notamment pour des capacités comme la navigation ou la mémoire spatiale, qui sont aussi supportées par le cortex pariétal ».
Mais il reste encore compliqué d’expliquer pourquoi les taux de neurotransmetteurs évoluent ainsi. Selon André Knops, « c’est un résultat surprenant qu’il faudrait d’abord répliquer. Ensuite, on pourra essayer de mieux le comprendre. On peut imaginer viser certaines fonctions plus spécifiques dans ce large domaine des mathématiques et y étudier le rôle des neurotransmetteurs ». Certaines hypothèses peuvent tout de même être formulées.
Le GABA, qui est habituellement un inhibiteur, semble jouer un rôle excitateur chez les enfants, et les voies du glutamate pourraient se mettre en place plus tardivement. De plus, les stratégies mises en œuvre face à un problème mathématique évolueraient avec l’âge, faisant plus appel à la mémoire, qui implique de façon importante d’autres régions, comme l’hippocampe.
Article rédigé par Georges Simmonds pour RT Flash
La Recherche
|
|
|
|
|
|
|
|
Lorsque l’ovule fécondé se divise, des cellules au départ indifférenciées remplissent des fonctions spécifiques et se différencient de plus en plus à mesure que divers tissus et organes prennent forme. Il s’est avéré difficile de comprendre comment des centaines de types de cellules différents se créaient, principalement parce que les scientifiques ne disposaient pas des technologies pour mesurer la prise de décision cellulaire sur la durée.
De récents progrès ont permis aux chercheurs de mesurer des changements d’activité génétique de cellules individuelles, et plusieurs groupes ont donc commencé à étudier en détail comment des types de cellules spécialisées se formaient dans des zones cérébrales spécifiques. Toutefois, jusqu’à présent, personne n’avait retracé le profil de l’expression génique dans l’ensemble du cerveau en développement.
Pour la première fois, des chercheurs de l’EPFL et leurs collègues de l’Institut Karolinska, en Suède, ont cartographié les trajectoires génétiques et développementales que suivent des cellules embryonnaires dans le cerveau en développement. « Cet atlas moléculaire peut non seulement aider à mieux comprendre le cerveau sain ou malade, mais aussi améliorer les approches thérapeutiques telles que la thérapie de remplacement cellulaire pour les affections neurodégénératives », explique Gioele La Manno, chef du Laboratoire de biologie des systèmes neurodéveloppementaux de l’EPFL et auteur principal de l’étude.
Afin d’observer le processus de décision dans des cellules individuelles sur la durée, Gioele La Manno et ses collègues ont analysé des échantillons cérébraux d’embryons de souris chaque jour depuis le septième jour suivant la fécondation jusqu’à la naissance. En utilisant une combinaison de puissantes techniques de séquençage et de méthodes mathématiques, les chercheurs ont obtenu environ 290 000 profils d’expression génique de cellules individuelles de toutes les zones du cerveau, ainsi que près de 800 «stades» cellulaires qui incluaient le programme de développement pour différentes cellules, y compris des neurones et des cellules de soutien des neurones.
A mesure que les progéniteurs neuronaux arrivent à maturité, ils cessent de proliférer et se différencient en une multitude de neurones différents. Les chercheurs ont suivi l’émergence de cette diversité et ont décrit le rythme d’apparition de cellules nerveuses primitives, appelées neuroblastes, dans différentes zones cérébrales.
Chez les souris, les premiers neuroblastes apparaissent tôt, avant le neuvième jour de développement embryonnaire, ce qui correspond à peu près au début du premier trimestre de grossesse chez l’être humain. Les chercheurs ont découvert que ces neurones primitifs intervenaient dans des fonctions sensorielles et motrices. « Une des premières choses à faire, c’est mettre en place les fonctions motrices et sensorielles, parce que si ça ne se fait pas rapidement, il sera ensuite plus difficile de construire des “autoroutes” vers la périphérie », souligne Gioele La Manno.
Les scientifiques ont aussi identifié des types spécifiques de progéniteurs neuronaux appelés «cellules gliales radiales organisatrices», dont le rôle est de guider le développement de cellules voisines en produisant des messagers moléculaires qui aident à définir la position de divers types de cellules cérébrales spécialisées. « Si le cerveau était un orchestre, les cellules gliales radiales organisatrices en seraient le chef », compare Gioele La Manno. Les scientifiques ont observé que ces cellules produisaient une plus grande variété de messagers moléculaires que ce qu’ils pensaient.
Cette analyse leur a aussi permis d’identifier des populations cellulaires de tailles différentes, dont certaines sont constituées de cent fois plus de cellules que d’autres. Une des plus grandes populations s’avère être celle des neurones excitateurs dans le cerveau antérieur, une zone qui englobe la plupart des régions impliquées dans la cognition d’ordre supérieur. Parmi les populations les plus petites, on compte celle d’un type de cellules de soutien des neurones appelées épendymocytes, qui produisent le fluide dans lequel baignent le cerveau et la moelle spinale.
Gioele La Manno espère que la mine d’informations fournies par cet atlas du cerveau pourra aider à identifier les gènes impliqués dans des maladies neurodéveloppementales et à déterminer l’origine de cellules malignes du cancer du cerveau. Selon lui, l’atlas pourrait aussi servir de référence pour évaluer les tissus cérébraux créés à partir de cellules souches en laboratoire. Afin d’aider d’autres scientifiques à étudier les cellules et les tissus présentant un intérêt médical, les chercheurs ont rendu l’atlas accessible au public en ligne.
Par la suite, Gioele La Manno prévoit de découvrir dans quelles zones du cerveau en développement se trouvent les différentes populations de cellules. « L’atlas actuel est un graphique moléculaire qui vous dit quels types de cellules sont similaires ou différentes », précise le chercheur. « Nous voulons maintenant voir où ces cellules se trouvent dans le cerveau ».
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Lorsqu’un danger est proche, on retrouve chez l’humain et l’animal un mécanisme d’évitement qui lui permet de prendre la fuite pour se protéger. Chez certaines personnes, cette réponse défensive est disproportionnée, se produit en dehors de tout danger et est symptomatique d’un trouble de l’anxiété. Connaître les mécanismes du cerveau qui sont à l’origine de cette réaction est crucial pour ouvrir des pistes thérapeutiques durables et efficaces sur les patients atteints de ces troubles.
Il existe deux principales réactions défensives : l’immobilité lorsque le danger est éloigné, et l’évitement lorsqu’il est proche. Si les mécanismes de la première sont bien connus des scientifiques car plus faciles à étudier (il est en effet plus simple d’observer les modifications neuronales sur un animal immobile), ceux de la seconde demeurent mal connus. Depuis ces dix dernières années, les scientifiques savaient que deux régions du cerveau, l’amygdale basolatérale et le cortex préfrontal dorsomédial, étaient impliquées, mais ignoraient dans quelle mesure elles travaillaient ensemble pour déclencher cette réaction d’évitement.
L’équipe de Cyril Herry au Neurocentre Magendie a observé chez les souris les mécanismes neuronaux-sous-jacents à l’origine de l’évitement. Pour cela, les chercheurs ont placé des souris dans un labyrinthe composé de deux compartiments. Dans l’un d’eux, un son désagréable était émis, associé à une menace. La souris avait alors la possibilité de fuir dans l’autre compartiment, arrêtant ainsi le son associé à un danger.
Pour comprendre le rôle de l’amygdale et du cortex préfrontal dans cette stratégie d’évitement, les chercheurs ont désactivé temporairement ces deux régions chez les souris pendant l’expérience. Ils ont ensuite utilisé les approches optogénétique couplées à des enregistrements de l’activité électrique des neurones, afin de manipuler et d’observer en temps réel au niveau neuronal les modifications comportementales qui se produisaient.
Le résultat est significatif : au moment où la souris reçoit le stimulus auditif, quelle que soit la région désactivée (amygdale ou cortex préfrontal), la réponse d’évitement est fortement perturbée. Cela démontre le rôle clé de ces deux régions du cerveau, à la fois dans la reconnaissance d’une menace, et dans la réponse d’évitement.
En outre, les chercheurs ont découvert que le cortex préfrontal associe non seulement le son à une menace, mais contrôle l’action à venir. En effet, une seconde avant que la décision de fuir ne soit prise chez la souris, les chercheurs ont constaté une activation des neurones dans le cortex préfrontal. L’amygdale intervient ensuite pour faire persister au sein du cortex préfrontal cette association entre le son désagréable et la prise de décision de l’animal. Le maintien de cette information dans le cortex préfrontal grâce à l’amygdale est ce qui permet in fine à l’animal de prendre la décision de fuir.
Comme le souligne Cyril Herry, co-auteur de l’étude, il s’agit d’une avancée importante pour les patients atteints de stress post-traumatique ou d’anxiété généralisée, qui ont une réaction d’évitement excessive en l’absence de menace réelle. Pouvoir prédire les modifications neuronales associées à cette anxiété permettra de traiter les symptômes en temps réel, et d’en cibler les causes physiologiques profondes.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Peu d’études traitent du cancer de la vessie qui touche cependant près de 600.000 personnes dans le monde et entraîne plus de 210.000 décès chaque année. La chirurgie est le traitement standard du cancer de la vessie avancé, une fois qu’il s'est développé dans la couche musculaire de la paroi de la vessie. Cependant, les taux de rechute après la chirurgie sont élevés en raison de la rémanence de certaines cellules cancéreuses après la résection de la tumeur. Ces cellules cancéreuses restantes qui constituent « la maladie résiduelle », accroissent le risque de rechute, de propagation à d’autres sites et de métastases.
Cette étude, menée par le Docteur Tom Powles de l'Université Queen Mary de Londres, documente un test sanguin capable de détecter de minuscules quantités d'ADN tumoral en circulation (ADNct). L'équipe constate que les patients dont les tests sanguins sont positifs pour l'ADNc après la chirurgie présentent un risque plus élevé de récidive du cancer que ceux étant négatifs. Le test permet donc également d’orienter le clinicien dans ses choix thérapeutiques. Selon les scientifiques, il pourrait changer la donne dans la prise en charge de ce cancer, après une intervention chirurgicale.
Ainsi, les patients atteints d'un cancer urothélial présentant un marqueur ADN sanguin particulier après la chirurgie présentent un risque plus élevé de rechute ; ces mêmes patients, donc à plus mauvais pronostic, pourraient bénéficier d'un traitement par immunothérapie (atezolizumab) ; chez ces patients, le traitement par l'atezolizumab a significativement amélioré la survie sans progression et la survie globale.
Ainsi, l’ADN tumoral circulant est un marqueur fiable de la maladie résiduelle et, dans ce type de cancer, de la réponse à l'atezolizumab. La mesure de l'ADNct apportée par le test apparaît d’ailleurs plus précise que la radiologie traditionnelle à prédire la rechute de la maladie. Le test va donc sans doute modifier les protocoles de soins post-chirurgie du cancer et, avec son adaptation -possible- aux différents types de tumeurs, ce test d’ADN circulant pourrait changer la pratique clinique en oncologie.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
A l’image des empreintes digitales, notre cerveau possède lui aussi une signature le rendant unique. Depuis quelques années, les scientifiques ont démontré que notre activité cérébrale, capturée grâce à la neuro-imagerie, forme un réseau de liens propre à chacun. Par contre, la façon dont cette empreinte pourrait être utilisée ou les informations qu’elle pourrait nous donner, notamment dans le dépistage des maladies neurologiques, sont actuellement au stade de la recherche.
Le Docteur Enrico Amico, collaborateur scientifique et SNF Ambizione Fellow au Centre de neuroprothèses de l’EPFL et au Laboratoire de traitement d’images médicales de l’EPFL, en collaboration avec des scientifiques de l’Université de Naples Parthénope et de Aix-Marseille Université, ont pour la première fois mis en évidence une utilisation possible au niveau clinique. En étudiant l’activité cérébrale de deux groupes, un groupe présentant un déficit cognitif léger, (avec des troubles de la mémoire, mais pas encore au stade de la démence), et un groupe « sain », ils ont découvert que l’empreinte cérébrale des personnes malades était moins facilement identifiable que celles des personnes sans symptômes.
Pour déterminer cela, les scientifiques ont enregistré l’activité électromagnétique du cerveau, c’est-à-dire la mesure des champs magnétiques produits par l’activité électromagnétique des neurones, de chaque patient. « Cela nous offre une sorte de résumé de l’activité du cerveau », indique Enrico Amico.
Les participants ont été testés à deux reprises, à une minute d’intervalle, afin de cartographier à chaque fois leur empreinte cérébrale. Dans le groupe « sain », l’empreinte est tellement unique que, pour chaque personne, les chercheurs ont pu reconnaître les images l’une par rapport à l’autre dans presque 100 % des cas. Pour les personnes présentant des troubles de la mémoire, l’empreinte est beaucoup moins reconnaissable et il est plus difficile de les identifier avec certitude.
Cette étude a également démontré que les empreintes cérébrales moins facilement identifiables correspondent à celles des participants obtenant de moins bons résultats au « mini-mental state examination ». Ce test est largement utilisé cliniquement afin d’évaluer les fonctions cognitives chez les personnes présentant des signes avant-coureurs de démence.
Finalement, le Docteur Amico et ses collaborateurs ont déterminé que pour les personnes avec des symptômes, ce n’était pas une région du cerveau en particulier qui semblait affectée, mais bien l’ensemble de l’activité cérébrale. « Nous espérons que de futures recherches exploiteront le potentiel de cet outil comme diagnostic au stade préclinique », conclut le chercheur.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Une étude réalisée par des chercheurs américains de la Northwestern University (Illinois) a montré que la consommation de certains aliments et boissons semble réduire le risque d'infection au coronavirus. Ces recherches montrent que consommer beaucoup de légumes réduit de 12 % le risque d’être testé positif au coronavirus. Ensuite, boire deux tasses de café par jour aurait quasiment les mêmes vertus, à hauteur de 10 %. Les chercheurs ont aussi observé cette réduction du risque avec le thé, le poisson gras et les fruits. « La nutrition d'une personne a un impact sur l'immunité et le système immunitaire joue un rôle clé dans la sensibilité et la réponse d'un individu aux maladies infectieuses, y compris la Covid-19 », explique Marilyn Cornelis, une auteure de l’étude.
Les fruits et les légumes contiennent des fibres alimentaires qui sont essentielles pour notre santé : elles favorisent la croissance des bonnes bactéries intestinales, aident à la gestion du poids, contribuent à une bonne digestion, limitent le mauvais cholestérol sanguin, etc.
Pour parvenir à leurs conclusions, les chercheurs ont étudié les données de près de 38 000 personnes âgées de 40 à 70 ans issues de l'étude Biobank menée entre 2006 et 2010. Ces mêmes participants ont réalisé des tests au coronavirus entre mars et novembre 2020. 17 % d’entre eux ont été testés positifs à la Covid-19.
Article rédigé par Georges Simmonds pour RT Flash
MDPI
|
|
|
|
|
|
|
|
Selon une étude conduite par Carlota Castro-Espin, de l'Institut Catalan d'Oncologie, en Catalogne, les femmes qui consomment davantage d'aliments pro-inflammatoires ont un risque accru de cancer du sein, en particulier les femmes pré-ménopausées. Les aliments qui augmentent l'inflammation sont la viande rouge et la viande transformée, les aliments riches en graisses comme le beurre, les margarines et les graisses de friture, ainsi que les confiseries, notamment le sucre, le miel et autres aliments riches en sucre. Les fruits, les légumes, les légumineuses, le thé et le café ont tous des propriétés potentiellement anti-inflammatoires.
« L'inflammation est l'une des caractéristiques de la carcinogenèse. Une inflammation chronique de bas grade est associée à plusieurs cancers », a expliqué Carlota Castro-Espin, doctorante à la Catalan Institute of Oncology, en Catalogne (Espagne), lors de sa présentation. « L'alimentation contribue à l'état d'inflammation chronique de bas grade, mais aucun composant de l'alimentation, à l'exception de l'alcool, ne s'est avéré être fortement associé au cancer du sein », a-t-elle noté.
Pour mener leur investigation, les chercheurs ont étudié plus de 318.000 femmes de la cohorte européenne European Prospective Investigation into Cancer and Nutrition (EPIC) qui ont été suivies pendant 14 ans, dont 13.246 ont développé un cancer du sein. Le potentiel inflammatoire diététique a été caractérisé par un score inflammatoire du régime alimentaire (ISD) basé sur les déclarations des participants concernant la consommation de 27 aliments.
« La plupart des études portant sur l'alimentation et le risque de cancer du sein se sont concentrées sur des nutriments ou des aliments isolés plutôt que sur l'ensemble du régime alimentaire. Les gens consomment des aliments et non des nutriments. Par conséquent, l'examen des modèles alimentaires globaux, plutôt que des composants individuels des régimes, peut conduire à des conclusions plus précises lors de l'analyse des associations avec un résultat sur la santé tel que le cancer du sein », a déclaré Carlota Castro-Espin.
Les résultats ont montré une association positive entre l'ISD et le risque de cancer du sein. Les femmes se trouvant dans le quintile le plus élevé du ISD, qui correspond au régime le plus pro-inflammatoire, présentaient une augmentation significative de 12 % du risque de cancer du sein par rapport à celles se trouvant dans le quintile le plus bas du ISD (HR : 1,12 ; IC à 95 % : 1,04 à 1,21).
Après ajustement pour des facteurs de confusion pertinents, chaque augmentation d'un écart-type de l'ISD a augmenté le risque de cancer du sein de 4 %, augmentant à 8 % le risque chez les femmes pré-ménopausées.
L'association entre les régimes pro-inflammatoires et le risque de cancer du sein était indépendante du sous-type de récepteur hormonal du cancer du sein. Il n'y avait pas d'interactions significatives entre l'ISD et l'indice de masse corporelle, l'activité physique ou la consommation d'alcool. « Nos résultats apportent de nouvelles preuves quant au rôle que jouent les habitudes alimentaires dans la prévention du cancer du sein. S'ils sont confirmés, ces résultats pourraient contribuer à l'élaboration de recommandations diététiques visant à réduire le risque de cancer », a déclaré Castro-Espin.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|