|
|
|
|
|
NUMERO 1090 |
|
|
|
|
|
|
|
Edition du 12 Février 2021
|
|
|
|
|
Edito
Les robots vont profondément changer nos vies
Notre planète vieillit à toute allure : d’ici à 2050, la part des plus de 65 ans dans le monde devrait passer de 9 % à 16 % de la population, selon le scénario principal des Nations Unies. En Europe et en d’Asie, la part des plus de 65 ans pourrait grimper de 18 % à 27 % d’ici trente ans, contre 8,2 % à 16 % dans les pays à revenus intermédiaires.
L’espérance de vie moyenne mondiale à la naissance a connu depuis un demi-siècle une progression sans précédent dans l’histoire humaine, passant de moins de 50 ans à 71,5 ans, et elle pourrait dépasser les 80 ans au milieu de ce siècle. En 2018, pour la première fois dans l'histoire, les personnes âgées de 65 ans ou plus étaient plus nombreuses dans le monde que les enfants de moins de cinq ans. Le nombre de personnes âgées de 80 ans ou plus devrait tripler, passant de 143 millions en 2019 à 426 millions en 2050.
En France, selon les dernières projections de l’Ined, la population devrait atteindre, en 2050, 74 millions de personnes contre 66,7 millions en 2021. Dans le même temps, l’espérance de vie devrait atteindre 90,3 ans pour les femmes en 2050, contre 85,6 ans en 2019, et 86,8 ans pour les hommes contre 79,7 ans en 2019. La France comptera, en 2050, 20 millions de personnes âgées, soit plus d’un quart de sa population. Le nombre de personnes de plus de 85 ans passera, quant à lui, de 2,1 millions de personnes aujourd’hui, à 4,2 millions d'ici 2050. Quant au ratio jeunes/seniors, il va tout simplement s’inverser, passant de 71 seniors pour 100 jeunes aujourd’hui, à 100 jeunes ayant moins de 20 ans pour 122 personnes âgées en 2050…
S’agissant de la population active (29,2 millions de personnes en 2019), elle pourrait baisser de 588.000 personnes d’ici 30 ans et, si l’on fait l’hypothèse que les critères actuels – âge légal de départ à la retraite, âge moyen d’entrée dans la vie professionnelle, restent inchangés, seul un Français sur deux sera en âge d’être actif en 2050. Mais le plus préoccupant est sans doute la forte progression attendue du nombre de personnes en perte d’autonomie, qui devrait passer de 2,5 millions aujourd’hui, à plus de 4 millions en 2050.
Selon le remarquable rapport de Dominique Libault, publié en mars 2019, il sera nécessaire, dans le cadre d’une vaste réforme du financement global de la dépendance et de l’accueil des personnes âgées, d’augmenter d’un tiers d’ici 20 ans l’effort public consacré à la dépendance (30 milliards par an au total), ce qui représente des dépenses supplémentaires de 9,3 milliards d’euros par an en 2040. Sans développement massif de nouvelles solutions de maintien à domicile pour les personnes très âgées, il faudrait, selon la DREES (Direction de la Recherche, des Etudes, de l'Evaluation et des Statistiques), augmenter de 50 % le nombre de places en EHPAD d’ici 2050, soit 300 000 places nouvelles à créer en 30 ans, et au moins 250 000 nouveaux agents à recruter, un objectif qui semble très difficile à atteindre, à la fois pour des raisons financières, et compte tenu de la contraction attendue de la population active qui va rendre de plus en plus difficile le recrutement et la formation des personnels travaillant dans ces établissements.
Dans un tel contexte, une nouvelle génération de robots polyvalents et autonomes est appelée à jouer un rôle majeur, non pour se substituer aux agents et soignants humains qui garderont toujours un rôle irremplaçable, mais pour alléger leurs tâches et en réduire les aspects pénibles et répétitifs, afin de leur permettre de se recentrer sur la dimension la plus noble de leur métier, celle qui consiste à préparer, accompagner, adapter et enrichir le parcours gériatrique individuel de chaque personne prise en charge, en établissement ou à domicile.
Depuis 4 ans, le robot ZORA, développé par l'entreprise Zora Robots, a fait son entrée dans les maisons de retraite, pour le plus grand bonheur des résidents. Ce robot humanoïde de 56 cm peut aussi proposer une large palette d’exercices cognitifs et de jeux d’observation aux personnes âgées. Il est également capable de vérifier la pertinence des réponses et de relancer le dialogue avec les seniors. Après des expérimentations positives, la totalité des Ehpad privés "Maisons de famille", soit quinze établissements situés dans toute la France, a décidé de s'équiper de ce compagnon robotique.
En mars dernier, 5 premiers robots « Nono » de téléprésence ont été livrés, à l’initiative conjointe de la Région Auvergne-Rhône-Alpes et du Département du Rhône, dans des établissements accueillant des personnes âgées situés sur les communes de Pollionnay, Anse, Villefranche-sur-Saône et Beaujeu. Ils permettent aux résidents, qui ressentent durement l’isolement lié aux mesures de protection imposés par la pandémie de Covid-19, de pouvoir échanger de manière simple et intuitive avec leurs proches. Grâce à son grand écran à hauteur réglable, sa webcam et son micro, les résidents peuvent dialoguer de manière naturelle avec leurs proches, dans leur chambre ou dans les parties communes, sans effectuer la moindre manipulation contraignante, et sans toucher le robot, ce qui limite les risques de contamination éventuelle.
Mais les robots ne se contentent pas d’aider les seniors à communiquer avec leurs proches ou de les faire participer à des jeux d’intérêt cognitif, ils peuvent aussi avoir une vraie vocation thérapeutique. C’est par exemple le cas du robot-phoque « Paro ». Recouvert d'une fourrure blanche, Paro est animé par de petits moteurs pilotés par un logiciel très élaboré d’intelligence artificielle, qui gère conjointement toute une panoplie de capteurs de sons, de pression et mouvements. Ce robot peut ainsi bouger doucement la tête ou le corps, cligner de ses yeux noirs ou pousser des petits couinements. Il réagit ainsi aux paroles des personnes qui le tiennent, en fonction de la façon dont il est tenu ou caressé.
Plus de 200 EHPAD ont déjà adopté Paro qui a montré une remarquable efficacité dans une meilleure prise en charge de l’anxiété et de la douleur. Emilie Bourrely, psychomotricienne dans un Ehpad public, confirme les effets bénéfiques surprenants de ce tendre robot. « Au contact de Paro, certains résidents qui ne communiquent presque plus forment des phrases cohérentes en lien avec la situation ». Convaincue par le réel potentiel thérapeutique de ce robot, cette professionnelle a commencé à l'utiliser dans l'unité de vie protégée de l'Ehpad puis dans l'unité d'hébergement renforcé (UHR), où les résidents présentent des troubles cognitifs et de comportement importants.
La Mutualité française a lancé en septembre 2016 une étude scientifique dans 11 EHPAD portant sur l’usage du robot PARO, auprès de résidents atteints de troubles cognitifs. Ce travail d’évaluation confirme les effets très positifs de ce robot, sur le plan social, relationnel et émotionnel. Cette étude souligne également que Paro, à condition d’être judicieusement utilisé, permet de diminuer les douleurs aiguës des personnes âgées atteintes de démence accueillies en institution. L’effet positif de PARO sur la douleur vient ainsi répondre à un réel besoin des équipes de soins dans les institutions accueillant des personnes avec démence.
Depuis trois ans, on peut également voir dans certains établissements les premiers robots autonomes d’assistance aux personnels médicaux. C’est par exemple le cas de Medi’Pep, un robot capable de communiquer avec des seniors dépendants. Capable de s’adapter de façon personnalisée et automatique à chaque personne, Medi’Pep a été développé par Softbank Robotics, en coopération entre ingénieurs, informaticiens et gérontologues. Il permet aux équipes médicales d’assurer un meilleur suivi de l’état de santé des personnes âgées, tout en proposant un accompagnement adapté à chaque résident. Il s’agit d’une machine évolutive, construite à partir de la plate-forme robotique Peper, qui est très facilement paramétrable en fonction des besoins spécifiques de chaque établissement. Selon son concepteur, Silvère Jauny, « Medipep permet de réhumaniser le travail du personnel de l’EHPAD en prenant en charge les activités mécaniques et sans valeur ajoutée ».
MediPep est capable d’identifier individuellement chaque résident, de dialoguer avec lui et de stocker les observations plus efficacement qu’un humain. Les informations précieuses ainsi recueillies sont transmises aux professionnels de santé qui peuvent ainsi anticiper de nombreux problèmes et réagir de manière plus rapide et efficace face à une situation d’urgence.
Autre exemple de robot d’assistance, Buddy, conçu par BlueFrog robotics, une société parisienne qui a obtenu la récompense de l’innovation au CES de 2018, à Las Vegas. Haut de 56 cm, pour un poids de 8kg et une autonomie de 6 heures, Buddy se veut polyvalent. Il peut rappeler l'heure d’une émission de TV ou d’une prise de médicaments à une personne âgée, lui proposer des jeux ou des exercices, la mettre directement en relation visiophonique avec ses proches et surveiller la maison en l’absence du propriétaire. Pilotable entièrement à la voix, Buddy se veut aussi un « robot émotionnel » qui réagit aux caresses et parvient, comme l’ont montré plusieurs expérimentations, à nouer une véritable relation affective avec son utilisateur.
Mais on peut aller encore plus loin et confier aux robots des tâches pénibles et délicates, comme celles consistant à transférer des personnes dépendantes de leur fauteuil à leur lit, et vice-versa. Le Japon, en pointe dans ce domaine, dispose déjà du robot "Mobiro" de Toyota, qui aide les personnes à mobilité réduite ou handicapées à se déplacer. C’est également dans ce but que les chercheurs du laboratoire japonais Riken ont développé et perfectionné depuis 5 ans leur robot-ours « Robear », capable de soulever et mouvoir des patients invalides. Ce gros mais très attentionné Nounours de 140 kg peut soulever et déposer délicatement, grâce à ses multiples capteurs sensoriels et son puissant logiciel d’IA, les personnes âgées ou malades et il est appelé, d’ici quelques années, à remplacer dans les établissements de soins japonais les humains, pour toutes les tâches pénibles et répétitives d’assistance physique qui, actuellement, prennent beaucoup de temps aux soignants et sont génératrices de pathologies musculaires et articulaires importantes pour le personnel humain.
Il y a quelques semaines, Samsung a fait forte impression en présentant, durant le CES 2021 de Las Vegas, son nouveau robot domestique, baptisé Bot Handy, qui préfigure ce que seront demain les robots domestiques, non plus seulement des interfaces numériques mobiles qui peuvent vous mettre en contact avec des tiers, vous rappeler un RV ou allumer la lumière, mais bien de véritables « majordomes » qui peuvent effectuer de nombreuses tâches complexes, y compris le rangement et le ménage et agir sur l’environnement (si vous disposez de quelques minutes, je vous invite à aller voir quelques videos, très intéressantes sur Youtube).
Bot Handy peut ainsi aider son propriétaire à mettre de l'ordre dans une pièce, ou encore lui servir son plateau-repas, ou lui apporter un magazine. Samsung précise que ce robot utilise l'IA pour reconnaître et ramasser des objets de taille, de forme et de poids différents ; il sait également évaluer le poids et la structure des objets qui l’entourent. Lors du show impressionnant de présentation, Bot Handy s’est montré capable de remplir un lave-vaisselle, de déposer du linge sale dans un bac, de mettre le couvert et de ranger les courses… Samsung est convaincu que, pour des raisons liées à la complexité de gestion et de cohabitation numérique, l’avenir de la robotique domestique appartient plutôt aux robots polyvalents qu’à l’utilisation, sous le même toit, d’une multitude de robots spécialisés qui peuvent finir par entrer en conflit d'usage.
La robotique d’assistance personnelle s’attaque également, nous l’avons vu avec le robot japonais Robear, à restituer aux seniors leur autonomie de déplacement perdue, ce qui constitue un enjeu majeur pour leur maintien dans de bonnes conditions, tout au long de leur vie. Dans ce domaine stratégique, la société Wandercraft, fondée par deux polytechniciens, Nicolas Simon et Alexandre Boulanger, s’est fixée comme ambition de redonner une véritable autonomie aux personnes qui ne peuvent plus marcher, grâce à un robot exosquelette : l’Atalante. Cet exosquelette a été conçu pour permettre aux patients de récupérer rapidement de l’autonomie. Mais Wandercraft pense déjà à l’étape suivante et travaille en vue de la mise sur le marché d’un exosquelette personnel, adapté à la circulation en milieu urbain et dans les transports en commun.
Enfin, il faut évoquer la première intervention vasculaire à distance in vivo en Europe, qui a eu lieu il y a quelques semaines. Le 8 décembre dernier, Rémi Sabatier, cardiologue interventionnel, a réalisé à distance, depuis le CHU de Caen, une angioplastie coronaire - dilatation d'une artère en vue de la pose d'un stent - sur un cochon qui se trouvait à 120 kilomètres, au centre de formation et de simulation du CHU de Rouen. Cette intervention, qui s’est parfaitement déroulée, a été réalisée grâce au robot R-One de la société Robocath et à son nouveau logiciel de télépilotage. Comme le précise Rémi Sabatier : « J'ai manipulé à distance mes instruments - guides et stents - avec la même sensation que lors d'une procédure robotique habituelle ».
Robocath souhaite à présent, en anticipant les potentialités que va offrir la 5G en termes de réactivité et de débit, faire bénéficier l'homme de cette technologie. Et l’on comprend mieux l’intérêt d’un tel outil de télérobotique chirurgical quand on sait qu'en Europe, en cas d'infarctus, 40 % de la population n'ont pas accès à une angioplastie coronaire, du fait des temps de transport trop longs vers un centre spécialisé. Cette innovation pourrait également permettre de prendre en charge plus rapidement certains AVC graves et de sauver ainsi plusieurs milliers de vie par an en France.
On voit donc, au travers de ces quelques exemples, que la nouvelle génération de robots autonomes, intelligents et polyvalents qui arrive, est appelée, surtout dans la perspective d’une diminution sensible des actifs, à jouer un rôle majeur, non seulement dans l’aide aux personnels soignants dans les établissements spécialisés, mais plus largement encore dans la télémédecine, y compris les urgences, les télésoins et le maintien à domicile des seniors de plus en plus nombreux qui seront en perte d’autonomie dans quelques années.
Je ne pense pas, contrairement à ce qu’on peut parfois entendre, que l’arrivée massive de ces nouveaux robots dans les foyers, les hôpitaux et les maisons de retraite, s’accompagnera d’une déshumanisation inévitable des soins et de la qualité de vie des patients, à condition toutefois que l’introduction de ces nouveaux outils se fasse de façon concertée avec l’ensemble des professionnels concernés et puisse s’adapter en permanence au niveau d’acceptabilité sociale et psychologique des malades et des seniors en perte d’autonomie. Il faut également insister sur le fait qu’en diminuant sensiblement la pénibilité de certaines de leurs tâches, ces auxiliaires robotiques polyvalents permettront aux agents humains de dégager un temps précieux pour se recentrer sur l’accompagnement personnel de chaque patient, dans toutes ses dimensions relationnelles, sociales et médicales.
Dans ce contexte, il est crucial que notre pays, qui a su garder une remarquable capacité d’innovation dans la conception de ces nouveaux outils robotiques d’assistance à la personne, parvienne à maintenir son niveau d’excellence dans la conception et le développement industriel de ces outils robotiques intelligents qui vont profondément bouleverser nos vies d’ici la fin de cette décennie.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Parmi les nombreuses voies technologiques explorées dans l’informatique quantique, celle qui s’appuie sur les transistors en silicium fait partie des moins spectaculaires actuellement. Alors que Google n’arrête pas de franchir de nouvelles étapes avec ses processeurs quantiques supraconducteurs, on n’entend pas grand-chose de la part des adeptes du silicium.
La principale difficulté sur laquelle ces chercheurs se cassent les dents, c’est le contrôle et la manipulation des « quantum dots », ces dispositifs élémentaires à base de transistors qui permettent de piéger les électrons par champ magnétique et de lire leurs spins. Le jour où l’on aura résolu ce problème, l’histoire pourrait s’enchaîner assez vite, car les processus de production en silicium sont très bien maîtrisés.
Des chercheurs du Niels Bohr Institute de Copenhague viennent peut-être de franchir un nouveau cap important dans ce domaine, en montrant qu’il était possible de contrôler individuellement chaque électron d’une matrice de 2 x 2 « quantum dots ». C’est la première fois, semble-t-il, que des chercheurs arrivent à maîtriser un tel assemblage de quatre qubits.
C’est une étape importante, car elle permettra peut-être le passage à plus grande échelle et de créer de grandes matrices de « quantum dots ». Ce qui permettrait alors de résoudre un autre grand problème de l’informatique quantique, à savoir la correction d’erreurs.
« Dans un ordinateur conventionnel, l’information est un 0 ou un 1. Afin d’être sûr que le résultat d’un calcul est correct, l’ordinateur répète le calcul et si un transistor fait une erreur, il est corrigé à la majorité simple. Si la majorité des calculs effectués dans d’autres transistors pointent sur 1 et non sur 0, alors 1 est choisi comme résultat. Ce n’est pas possible dans un ordinateur quantique car vous ne pouvez pas faire une copie exacte d’un qubit, donc la correction d’erreur quantique fonctionne d’une autre manière.
Les qubits physiques à la pointe de la technologie n’ont pas encore un faible taux d’erreur, mais si on en combine suffisamment dans une matrice 2D, ils peuvent se contrôler l’un l’autre, pour ainsi dire », explique le Niels Bohr Institute.
Article rédigé par Georges Simmonds pour RT Flash
NBI
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Les robots s'apprêtent-ils à envahir les parkings ? Après le robot-voiturier Stan expérimenté à l'aéroport de Lyon, voici venir le robot-chargeur présenté sous forme de prototype par le groupe Volkswagen. Ce "droïde", dont l'écran frontal affiche des yeux, est capable de fournir le plein d'électricité à une voiture électrique ou hybride rechargeable de manière autonome.
Son fonctionnement repose sur la communication entre véhicules et infrastructures, dite car-to-X. Il suffit de se garer et de signaler via une application mobile au robot, en attente, que sa voiture doit être rechargée, pour que la machine s'occupe de tout.
Le robot embarque alors une batterie de recharge mobile comme une remorque et vient ouvrir la trappe de recharge du véhicule, y brancher sa borne roulante et lancer le transfert. Une fois ce dernier terminé, le robot débranche l'accumulateur et ramène celui-ci vers son emplacement de stockage. On retrouve ainsi une voiture chargée au moment de repartir. Le robot peut gérer la recharge de plusieurs véhicules simultanément en y branchant une à une plusieurs bornes mobiles.
Encore en développement, le robot de recharge de Volkswagen doit maintenant être testé. Si les essais sont concluants, son déploiement sera soumis à deux contraintes principales. La première sera l'adoption à une échelle suffisamment grande de la technologie car-to-X. Certains nouveaux véhicules du groupe Volkswagen, comme la Golf 8, en sont équipés de série. Le géant allemand n'est pas le seul à installer de telles fonctionnalités à bord de ses modèles mais les constructeurs ne progressent pas tous à la même vitesse et ont besoin que les infrastructures suivent.
Le second point sera purement commercial puisqu'il s'agira de négocier l'exploitation de ces robots avec les sociétés privées ou publiques en charge des parkings susceptibles de les accueillir. Une telle technologie pourrait permettre de contourner la contrainte de l'installation de bornes fixes, et donc faciliter l'accès à la recharge dans un grand nombre de lieux.
Article rédigé par Georges Simmonds pour RT Flash
L'Automobile
|
|
|
|
|
|
|
|
Comment sera la voiture de 2050 ? Autonome et directement connectée au cerveau humain, selon Nissan. Le constructeur vient de présenter un concept car tout droit sorti d'un film de science-fiction, qui est pensé pour exister dans un futur où « les machines autonomes pourraient intégrer l'émotion d'un conducteur grâce à une connexion physique ».
Baptisée GT-R (X), le véhicule est doté d'une unique place et mesure environ 3 mètres de long et 60 centimètres de haut. Son occupant est installé à plat ventre, la tête vers l'avant et les membres étendus en forme de X. Il est équipé d'une combinaison et d'un casque. Ce dernier, conçu pour être relié à un système de réalité virtuelle, est doté d'un capteur qui permettrait au cerveau humain d'activer des commandes. Connecter directement le cerveau aux logiciels du véhicule offrirait de meilleures performances, selon Nissan.
Tout un travail autour de la connexion émotionnelle que la technologie peut créer et l'intérêt que cela peut avoir pour les clients a été réalisé pour concevoir cette GT-R (X). « Je voulais créer un nouveau concept qui ne soit pas un véhicule à conduire, mais où la machine et l'humain ne font plus qu'un », explique JB Choi qui est à l'origine de ce concept sorti du laboratoire Nissan Design America (NDA) situé en Californie.
Le GT-R (X) reprend les lignes de la Nissan GT-R actuelle et ses feux arrières. Des bandes rouges, rappelant celles de la GT-R Nismo, ont aussi été ajoutées. Des ensembles roue/pneu monoblocs carénés permettant au véhicule de tourner à 360 degrés ont été imaginés. Le diamètre extérieur du pneu mesure 21 pouces sur une jante de 15 pouces. L'aileron actif, qui s'escamote pour que le conducteur puisse entrer et sortir du véhicule, améliore l'appui aérodynamique du véhicule.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Digitale
|
|
|
|
|
|
|
|
Des scientifiques de l'EPFL de Lausanne ont conçu une technique permettant de faire naviguer un appareil électronique, plus petit qu’un cheveu humain, à l'intérieur des vaisseaux sanguins et d'atteindre les artérioles. Des tests in vivo constituent la prochaine étape de la recherche.
Lucio Pancaldi, doctorant, et Selman Sakar, professeur assistant, ont décidé d'exploiter l'énergie hydrocinétique (énergie mécanique résultant du mouvement des liquides) pour atteindre certains endroits du corps humain sans avoir recours à des méthodes invasives. « La plus grande partie du cerveau reste inaccessible, car les outils existants s’avèrent encombrants, et il est extrêmement difficile de naviguer dans le minuscule et tortueux système vasculaire cérébral sans provoquer de lésions tissulaires », explique Selman Sakar.
Les médecins peuvent accéder aux artères des patients en poussant et en tournant des fils de guidage, puis en faisant glisser des tubes creux appelés cathéters. Dès que ces dernières rétrécissent, en particulier dans le cerveau, la technique d’avancement montre ses limites. Les scientifiques du laboratoire des systèmes microbiorobotiques, en collaboration avec le groupe du professeur Diego Ghezzi, ont conçu un dispositif microscopique qui pourrait s’introduire dans les capillaires avec une vitesse et une facilité sans précédent.
Le dispositif est composé d’une pointe et un corps ultraflexible en polymères biocompatibles. « C’est comme si l’on jetait un hameçon de canne à pêche dans une rivière. Il va être transporté par le courant. Il suffit de retenir l’extrémité de l'appareil et de laisser le sang l’entraîner vers les tissus les plus périphériques. Nous faisons tourner doucement l'extrémité magnétique du dispositif aux bifurcations pour choisir un chemin spécifique », explique Lucio Pancaldi. Comme aucune force mécanique n’est appliquée sur les parois des vaisseaux sanguins, le risque de causer des dommages est faible. L'exploitation du flux sanguin pourrait réduire la durée de l'opération de plusieurs heures à quelques minutes.
L’activation de l'appareil et la direction magnétique sont contrôlées par ordinateur. Il n'y a pas besoin de retour d'effort puisque la pointe du dispositif ne pousse pas contre les parois des vaisseaux sanguins. « Nous pouvons imaginer qu'un robot chirurgical utilisera la carte détaillée du système vasculaire fournie par une IRM ou un scanner du patient pour guider de manière autonome le dispositif vers sa destination. L'ajout de l'intelligence artificielle transformerait les opérations endovasculaires. Alternativement, un programme informatique pourrait également utiliser les informations visuelles fournies par un fluoroscope pour localiser l'appareil et calculer une trajectoire en temps réel afin de faciliter l’opération manuelle », explique Selman Sakar.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L’utilisation du zinc pour fabriquer de la pile électrique date de bien longtemps. Ce matériau est couramment utilisé dans les batteries non rechargeables, dites alcalines. Cette appellation vient en partie du fait que celles-ci ont besoin d’un pH élevé pour fonctionner.
Contrairement au métal utilisé pour la fabrication de l’électrode d’un accumulateur au lithium, le zinc est réputé moins cher et abondant. Et c’est vrai ! Dans une pile alcaline, l’autre électrode peut être simplement l’air. Cette combinaison permet certes de produire une unité de stockage d’énergie, mais ladite unité ne peut pas être rechargée étant donné que la réaction générée ne fonctionne que dans un seul sens.
Cependant, il semblerait que des chercheurs aient réussi à créer une batterie rechargeable coûtant beaucoup moins cher qu’une batterie carbonate de lithium, et ce, en utilisant du zinc comme électrode. Pour ce faire, ils ont remplacé l’électrolyte à base d’eau par un produit chimique hydrophobe.
En comparaison avec la technologie de batterie au lithium, l’efficacité est moins bonne. Les expériences menées par les chimistes du Naval Research Laboratory (à Washington) leur ont notamment permis de savoir que le cycle charge-décharge est relativement long. Selon eux, cette étape demande en moyenne 20 heures.
Malgré cet inconvénient, les batteries zinc-air rechargeables pourraient être utilisées dans un contexte où la rapidité du cycle charge/décharge ne constitue pas une priorité. Les scientifiques suggèrent à cet effet une utilisation au sein d’une unité de distribution électrique qui accorde davantage d’importance au coût qu’aux questions d’ordre technique.
Dans une batterie conventionnelle, le zinc fournit des électrons. Mais en raison des ions hydroxydes dont elle regorge, des dendrites se forment au fil du temps à la surface de l’électrode de zinc, empêchant le cycle charge/décharge. Pour rendre ce dernier possible, les chercheurs ont intégré dans leur batterie une électrode de zinc ayant une forme spongieuse afin de retarder l’apparition des dendrites.
Ils se sont également penchés sur le problème des ions hydroxydes et ont remplacé la solution alcaline par du triflate. Résultat, une batterie rechargeable dotée d’un excellent rapport poids/énergie, même si sa vitesse de charge est particulièrement lente.
Article rédigé par Georges Simmonds pour RT Flash
NeozOne
|
|
|
|
|
|
|
|
Des chercheurs saoudiens, du King Abdulaziz City for Science and Technology (KACST) et britanniques, de l'Université d'Oxford, ont mis au point un système qui permet de transformer le dioxyde de carbone émis par les avions en carburéacteur. Cette transformation peut se faire en plein vol, ce qui permet à la fois de réduire l’émission de gaz à effet de serre des avions et de fournir du carburant aux engins.
Les scientifiques à l’origine du concept précisent que ce dioxyde de carbone est extrait de l’air et réémis dans des carburéacteurs lorsqu’il est brûlé en vol, ce qui permet, contrairement aux carburants actuels produits à partir de sources fossiles d’hydrocarbures, d'obtenir un carburant neutre en carbone.
Ce n’est pas la première fois qu’une telle solution est envisagée. Une entreprise canadienne avait déjà eu une idée similaire en 2018 et avait mis au point une machine capable de convertir le CO2 en combustible synthétique. Des chercheurs du MIT avaient également inventé un système permettant de capturer le CO2 de l’air.
Reste à savoir si ce procédé élaboré par les chercheurs de l’Université d’Oxford pourrait être efficace en conditions réelles. L’un des chercheurs a tout de même indiqué être en discussion avec plusieurs partenaires industriels pour intégrer cette méthode de conversion du dioxyde de carbone en carburéacteur dans des avions. « Il n’y a pas de grands défis, mais nous devons optimiser le processus et le rendre plus efficace », a-t-il précisé.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Dans la compétition mondiale pour la maîtrise de la fusion thermonucléaire, il va désormais falloir compter avec la Corée du Sud. Ce pays a annoncé avoir battu un nouveau record. Son projet, le KStar (pour Korea Superconducting Tokamak Advanced Research), est en effet parvenu à maintenir un plasma à haute température durant 20 secondes.
Le tokamak coréen a réussi à maintenir une température ionique supérieure à 100 millions de degrés Celsius. Un exploit quand on sait que l'un des grands défis de la fusion nucléaire réside dans l'instabilité du plasma à haute température. L'essai a été mené par l'Institut sud-coréen de recherche sur la fusion nucléaire (KFE). L'organisme et son appareil, aussi connu sous le nom de « soleil artificiel coréen », n'en sont pas à leur coup d'essai. Ils cherchent chaque année à battre les records de maintien du plasma à haute température.
Ainsi, en 2018, le KStar avait dépassé les 100 millions de degrés Celsius pour la première fois, maintenant cette très haute température durant 1,5 seconde. En 2019, l'expérience avait cette fois réussi à conserver la stabilité du plasma durant 8 secondes.
Le centre de recherche KStar dépasse ainsi ses homologues, aucun d'entre eux n'ayant jusque-là réussi à maintenir un plasma stable à plus de 100 millions de degrés pendant plus de 10 secondes. Ces durées, qui restent modestes, témoignent à la fois des avancées régulières dans le domaine et du défi qui s'impose aux scientifiques. Pour établir ce record, le tokamak a profité d'un mode de confinement du plasma amélioré, appelé Internal Transport Barrier, ou ITB. Développé l'année dernière, il doit permettre de préserver la stabilité du plasma sur des périodes plus longues.
Le directeur du centre de recherche du KStar, Si-Woo Yoon, insiste sur le caractère stratégique de cette innovation. Selon lui, « les technologies nécessaires pour de longues opérations à 100 millions de degrés sont la clé de la réalisation de l'énergie de fusion ». Il ajoute : « Le succès du KStar à maintenir le plasma à haute température pendant 20 secondes constitue un tournant important dans la course à la sécurisation des technologies pour la longue opération d'un plasma haute performance, un composant critique d'un futur réacteur de fusion nucléaire commercial ».
À présent, le KStar doit poursuivre ses efforts. 110 nouvelles expériences sont prévues, certaines devant atténuer les perturbations du plasma, d'autres devant s'intéresser à son exploitation. L'institut prévoit de partager les principaux résultats de ses recherches avec les chercheurs du monde entier, à l'occasion de la conférence de l'AIEA sur l'énergie de fusion. Celle-ci se tiendra en mai prochain.
Article rédigé par Georges Simmonds pour RT Flash
Phys.org
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des neuroscientifiques de l’Institut des neurosciences aux Pays-Bas sont parvenus, en utilisant des stimulations électriques, à activer le cortex visuel des singes, leur permettant de voir des lettres et des mouvements.
La stimulation du cortex visuel par les impulsions électriques permet de contourner les yeux pour permettre de voir. Cette stimulation produit des “phosphènes”, des points blancs ou gris qui peuvent apparaître quand on se lève trop tôt, par exemple. Dans ce cas, les scientifiques cherchent à organiser ces points blancs comme des pixels afin de constituer une image.
Les chercheurs espèrent pouvoir réaliser cette constitution grâce à la miniaturisation d’électrodes qui permettent d’imaginer pouvoir mettre en place des lunettes spéciales pour personnes aveugles avec une caméra qui envoie des données à un processeur portable.
Dans leur étude, les chercheurs ont mené leurs essais sur des signes. Ils ont placé 1 024 électrodes dans le cortex visuel des singes afin que ceux-ci voient 1 024 pixels. Ils ont activé certaines électrodes afin de créer des phosphènes formant une lettre de l’alphabet. En même temps, les images de ces lettres ont été projetées sur un écran, permettant au singe d’associer l'image en phosphènes à celle de la lettre. Les résultats ont montré que ces derniers ont été capables de détecter quelle lettre a été représentée avec une haute probabilité.
« Nous avons découvert que c’est possible de voir sans utiliser ses yeux », se réjouit Xing Chen, neuroscientifique et auteure de l’étude. « Des personnes aveugles pourraient reconnaître des objets dans leur environnement suffisamment pour avoir une vision rudimentaire. Cela donne l’espoir que des scientifiques pourraient développer une technologie qui aiderait considérablement des personnes aveugles ».
Les auteurs notent cependant que l’on est loin d’avoir trouvé un moyen de redonner complètement la vue aux personnes aveugles. « Notre étude montre principalement que des personnes aveugles pourraient reconnaître des objets dans leur environnement », estime la chercheuse.
« Cependant ils ne verraient ni les couleurs, ni les détails précis d’un objet. Ça serait un nouveau type de vision artificielle qui a pour but d’assister des personnes dans le besoin. C’est presque comme partir d’un état complètement aveugle à une forme de vision mauvaise. Dans notre étude, nous sommes à un peu plus de 1000 pixels, ce qui est très peu comparé à la vision normale, percevant environ deux millions de pixels ».
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Les bio-ingénieurs de l’EPFL ont mis au point un système de nanopores capable de lire les données codées dans des macromolécules synthétiques avec une précision et une résolution supérieures à celles des méthodes similaires du marché. Ce système permettrait de dépasser les limites des dispositifs de stockage de données classiques.
En 2020, chaque individu produit environ 1,7 mégaoctet de données toutes les secondes. En une seule année, cela revient à 418 zettaoctets, soit 418 milliards de disques durs d’une capacité de 1 téraoctet. Nous stockons actuellement les données sous forme de 1 et de 0 dans des systèmes magnétiques ou optiques qui ont une durée de vie inférieure à un siècle. Parallèlement, les centres de données consomment de grandes quantités d’énergie et ont une empreinte carbone très élevée. En bref, notre façon de stocker les données toujours plus importantes n’est pas durable.
Il existe une alternative : le stockage des données dans des molécules biologiques comme l’ADN. À l’état naturel, l’ADN code, stocke et rend des quantités massives d’informations génétiques lisibles dans des espaces minuscules (cellules, bactéries, virus), de manière très sûre et reproductible. Par rapport aux dispositifs de stockage de données classiques, l’ADN est plus durable et comprimé. Il peut conserver dix fois plus de données, a une densité de stockage 1 000 000 de fois plus élevée et consomme 100 millions de fois moins d’énergie pour stocker la même quantité de données qu’un disque dur. De plus, un dispositif de stockage de données ADN serait minuscule : les données produites en un an à l’échelle mondiale peuvent être stockées dans seulement quatre grammes d’ADN.
Mais le stockage de données avec l’ADN implique également des coûts exorbitants, des mécanismes de lecture et d’écriture extrêmement lents, et est sujet aux lectures erronées. Une méthode consiste à utiliser les nanopores – des trous de taille nanométrique – dont les bactéries perforent souvent d’autres cellules pour les détruire. Les bactéries attaquantes sécrètent des protéines spécialisées appelées «toxines formant des pores», qui s’accrochent à la membrane de la cellule et y forment un canal tubulaire.
En bio-ingénierie, les nanopores sont utilisés pour détecter les biomolécules comme l’ADN ou l’ARN. La molécule traverse le nanopore tel une chaîne, dirigée par une tension, et ses différentes composantes produisent des signaux électriques distincts (une «signature ionique») qui peuvent servir à les identifier. En raison de leur précision élevée, les nanopores sont également expérimentés pour la lecture d’informations codées par l’ADN.
Cependant, les nanopores sont encore limités par des lectures de faible résolution, ce qui pose un véritable problème si les systèmes de nanopores doivent un jour être utilisés pour stocker et lire des données. Le potentiel des nanopores a amené les scientifiques de la Faculté des sciences de la vie de l’EPFL à explorer les nanopores produits par l’aérolysine, toxine formant des pores fabriquée par la bactérie Aeromonas hydrophila. Sous la direction de Matteo Dal Peraro à la Faculté des sciences de la vie de l’EPFL, les chercheurs ont montré que les nanopores d’aérolysine peuvent servir à décoder les informations binaires.
En 2019, le laboratoire de Matteo Dal Peraro a révélé que les nanopores peuvent être utilisés pour détecter des molécules plus complexes, comme les protéines. Dans cette étude publiée dans Science Advances, l’équipe a collaboré avec le laboratoire d’Alexandra Radenovic (EPFL) et a adapté l’aérolysine pour détecter les molécules conçues précisément pour être lues par ce pore. Un brevet a été déposé pour cette technologie.
Connues sous le nom de «polymères numériques», les molécules ont été développées dans le laboratoire de Jean-François Lutz à l’Institut Charles Sadron du CNRS à Strasbourg. Ces molécules sont une combinaison de nucléotides d’ADN et de monomères non biologiques conçus pour traverser les nanopores d’aérolysine et donner un signal électrique qui pourrait être lu comme un «bit».
Les chercheurs ont utilisé des mutants de l’aérolysine pour concevoir systématiquement des nanopores pour la lecture de signaux de leurs polymères informationnels. Ils ont optimisé la vitesse des polymères traversant le nanopore de sorte qu’il peut donner un signal identifiable de manière unique. « Mais contrairement aux lectures de nanopores classiques, ce signal a permis une lecture numérique avec une résolution à un seul bit, sans restreindre la densité des informations, » dit Dr Chan Cao, l’auteure principale de l’article.
Pour décoder les signaux de lecture, l’équipe a utilisé l’apprentissage profond, ce qui lui a permis de décoder jusqu’à 4 bits d’informations des polymères avec une précision élevée. Elle a également utilisé l’approche consistant à identifier à l’aveugle les mélanges de polymères et à déterminer leur concentration relative. Le système est beaucoup moins cher que l’ADN pour le stockage de données, et offre une plus longue durée de vie. De plus, il est «miniaturisable», ce qui signifie qu’il pourrait être facilement intégré dans des dispositifs de stockage de données portables.
« Nous travaillons sur plusieurs améliorations pour transformer cette plateforme bio-inspirée en un produit réel pour le stockage et la récupération des données », déclare Matteo Dal Peraro. « Mais ces travaux indiquent clairement qu’un nanopore biologique peut lire des analytes d’ADN-polymère hybrides. Nous sommes ravis car cela ouvre de nouvelles perspectives prometteuses pour les mémoires de polymères, avec des avantages importants pour l’ultra haute densité, le stockage à long terme et la portabilité des dispositifs ».
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Cette nouvelle méthodologie d'exploitation de la mammographie pourrait révolutionner le dépistage du risque de cancer du sein, nous explique cette équipe de techniciens en imagerie de l’Université de Melbourne. Publiée dans l'International Journal of Cancer, l'étude révèle 2 nouvelles mesures du risque basées sur la mammographie, accessibles grâce à l'utilisation de l’intelligence artificielle (IA). Combinées, ces mesures sont bien plus efficaces à stratifier et à prédire le risque de cancer.
Les chercheurs australiens affirment que si ces mesures étaient adoptées en routine, le dépistage du cancer du sein en serait considérablement amélioré, et sa mortalité réduite. Enfin, cette nouvelle méthodologie semble apporter une réponse au défi des « seins plus denses » pour lesquels le diagnostic est généralement plus complexe.
En collaboration avec le Cancer Council Victoria et BreastScreen Victoria, les chercheurs de Melbourne ont cherché de nouveaux moyens d’exploiter la mammographie pour améliorer le dépistage. C’est là qu’intervient l’intelligence artificielle (IA) : en utilisant des programmes informatiques pour analyser les images mammographiques d'un très grand nombre de femmes avec et sans cancer du sein, les chercheurs ont identifié 2 nouvelles mesures permettant de mieux évaluer les risques : 1/une mesure de la densité à des niveaux de luminosité habituels et successivement plus élevés ; 2/ une mesure de la texture associée elle-aussi au risque de cancer du sein.
Lorsque ces 2 nouvelles mesures sont combinées, elles permettent d’améliorer considérablement la prédiction des risques et à un niveau bien supérieur de celui de tous les autres facteurs de risque connus. L’auteur principal, John Hopper, ajoute qu'en termes de compréhension et d’évaluation des différences de risque chez les patientes, ces développements pourraient être les plus importants depuis la découverte des gènes BRCA1 et BRCA2 du cancer du sein, il y a de cela plus de 25 ans.
« Ces mesures pourraient révolutionner le dépistage mammographique à peu de frais, car elles utilisent simplement des programmes informatiques. Ensuite, ces nouvelles mesures pourraient également être combinées avec les autres facteurs de risque renseignés lors du dépistage, tels que les antécédents familiaux et les facteurs liés au mode de vie, pour apporter une image encore plus solide et holistique du risque ».
Vers un dépistage mieux personnalisé et plus prédictif : personnaliser le dépistage devient aujourd’hui possible : « la mammographie est désormais numérique, les mesures sont informatisées, les femmes évaluées pour leur risque au moment du dépistage pourraient donc recevoir des recommandations pour leur dépistage futur en fonction de leur risque personnel, et pas seulement de leur âge ».
Article rédigé par Georges Simmonds pour RT Flash
IJC
|
|
|
|
|
|
|
|
La flore intestinale, également connue sous le nom de microflore intestinale ou microbiote intestinal, est un ensemble de micro-organismes qui logent au niveau des intestins. Depuis quelques années, les scientifiques s’intéressent de plus en plus à elle. De son état pourraient dépendre la fatigue chronique, les vers intestinaux ou encore les effets des immunothérapies.
Et, récemment, des scientifiques ont même découvert un lien entre la flore intestinale et les sites d’inflammation du système nerveux central dans la sclérose en plaque (SEP). D’après leur étude parue le 22 décembre dans la revue Science Immunology, une classe spécifique de cellules immunitaires jouerait un rôle central dans cet axe intestin-cerveau qui vient d’être identifié. A terme, ces résultats pourraient permettre de créer de nouveaux traitements de la SEP, maladie inflammatoire et dégénérative du cerveau et de la moelle épinière, qui touche aujourd’hui 2,5 millions de personnes dans le monde.
Actuellement, les traitements de la sclérose en plaques reposent sur l’élimination de cellules B productrices d'IgA (ou IgA B) du sang des patients. L'immunoglobuline A (IgA) représente une classe d'anticorps spécialisée dans la défense immunitaire des muqueuses. Toutefois, il y a quelques années, une équipe internationale de l'Université de Bâle et de l'Hôpital universitaire de Bâle (Suisse) a découvert qu’il ne valait mieux pas éliminer un trop grand nombre de cellules B au risque d’aggraver la maladie.
Aujourd’hui, en analysant des échantillons de selles de patients atteints de sclérose en plaques et de personnes en bonne santé, les mêmes chercheurs ont observé que les malades présentent des cellules B ciblant particulièrement les bactéries typiques de la maladie. Ils ont ensuite analysé le rôle de ces cellules immunitaires pendant les poussées aiguës chez 56 malades. Ils ont alors découvert que les cellules IgA B s'accumulaient dans le liquide céphalorachidien et le tissu cérébral des patients présentant des sites d'inflammation aiguë.
Apparemment, ces cellules immunitaires migrent de l'intestin vers les sites d'inflammation du système nerveux central, où elles libèrent une substance messagère anti-inflammatoire, explique le Docteur Anne-Katrin Pröbstel, qui a mené l’étude. Cela pourrait expliquer pourquoi la maladie s'aggrave si ces cellules immunitaires sont éliminées du sang avec des médicaments, poursuit-elle. Ainsi, ces cellules formeraient un pont entre la flore intestinale et les sites d’inflammation du système nerveux central, exerçant ainsi un effet anti-inflammatoire.
« Nous savions, grâce à des études antérieures, que la composition de la flore intestinale joue un rôle dans la sclérose en plaques. Mais on ne savait pas encore exactement comment les bactéries intestinales et les cellules immunitaires s'influencent mutuellement », se félicite le Docteur Pröbstel.
Reste à comprendre ce qui active précisément les cellules IgA B en tant qu'auxiliaires contre la sclérose en plaques et déclenche leur migration de l'intestin vers le système nerveux central. « Si nous trouvons le déclencheur, nous pourrions l'utiliser pour traiter la SEP », explique le Docteur Pröbstel. Les scientifiques pourraient par exemple modifier la composition de la flore intestinale des malades de manière ciblée afin de mobiliser les cellules IgAB comme aides contre l’inflammation dans le système nerveux.
Article rédigé par Georges Simmonds pour RT Flash
NCBI
|
|
|
|
|
|
|
|
Aujourd’hui, l’un des traitements les plus utilisés pour combattre le cancer chez un patient est la chimiothérapie. Elle consiste à injecter des médicaments spécifiques dans l’organisme du malade pour attaquer les cellules cancéreuses mais, comme le disent les spécialistes, certaines raisons font que cette thérapie peut parfois ne pas fonctionner à 100 %. Dans ce contexte, une équipe de chercheurs de l’University College de Londres a développé une technique qui permettrait de rendre la chimiothérapie jusqu’à 34 % plus efficace.
Cette technique se base sur la combinaison des médicaments habituels avec des nanoparticules magnétiques. En gros, les nanoparticules magnétiques, qui transportent également le médicament choisi, viennent s’attacher aux cellules d’une tumeur cancéreuse. Cela fait, l’on va appliquer un champ magnétique inoffensif au niveau de la zone où se trouve la tumeur. Ce champ va activer les propriétés magnétiques des nanoparticules qui vont alors se réchauffer, augmentant ainsi la température des cellules cancéreuses. D’après les résultats, ce processus endommage la tumeur et la rend plus vulnérable aux médicaments habituellement utilisés.
Selon les informations, cette nouvelle méthode n’a encore été testée qu’en laboratoire. Les chercheurs indiquent néanmoins que les premiers résultats sont prometteurs. Au cours des tests, les scientifiques ont appliqué la technique sur des cellules cancéreuses du sein, sur des cellules cancéreuses du cerveau, ainsi que sur des cellules cancéreuses de la prostate de souris.
Parmi les résultats décrits dans l’article publié dans la revue Journal of Materials Chemistry B, on peut voir que la combinaison de la chaleur et du médicament du nom de doxorubicine a permis de tuer 98 % des cellules cancéreuses du cerveau après une période de 48 heures. Selon les chercheurs, ce résultat était de 73 % seulement lorsque le médicament était utilisé seul.
En ce qui concerne les cellules cancéreuses du sein, la combinaison a permis l’élimination de 89 % des cellules malignes contre 77 % seulement lorsqu’on se sert uniquement du médicament.
Selon le professeur Nguyen T.K. Thanh qui est le premier auteur de l’étude, leur travail montre le potentiel énorme de la combinaison de la chimiothérapie avec la chaleur délivrée à l’aide des nanoparticules magnétiques. Il ajouté que cette technique est déjà approuvée pour traiter les glioblastomes, ou cellules cancéreuses du cerveau à croissance rapide, mais que les résultats de cette étude suggèrent qu’elle a le potentiel pour être utilisée comme thérapie généralisée du cancer.
Article rédigé par Georges Simmonds pour RT Flash
FZN
|
|
|
|
|
|
|
|
Des scientifiques ont découvert des ondes cérébrales à haute fréquence traduisant comment notre cerveau crée ses propres attentes vis-à-vis du monde qui nous entoure, ainsi que comment il remarque que quelque chose est différent grâce à des comparaisons entre ses souvenirs et la situation présente. Nos souvenirs nous permettent de former des attentes quant à nos expériences futures, mais les mécanismes neuronaux précis qui sous-tendent la façon dont nous comparons chaque expérience vécue à notre mémoire restent méconnus.
Une étude publiée dans la revue Nature Communications révèle comment le cerveau utilise certaines voies neuronales pour comparer les attentes qu’il forme à partir des expériences passées et avec les informations qu’il reçoit dans le présent. L’équipe de l’Institut américain des troubles neurologiques et des AVC (NINDS), qui fait partie des Instituts américains de la santé (NIH), a identifié des ondes cérébrales de haute fréquence traduisant ce processus de comparaison qui permet à notre cerveau de remarquer quand quelque chose est “différent” : par exemple, un objet posé ailleurs qu’à sa place habituelle.
La théorie du “codage prédictif” (de l’anglais “predictive coding”) postule que le cerveau construit en permanence une représentation de son environnement, un modèle constamment mis à jour avec les informations à sa disposition, c’est-à-dire les entrées sensorielles qu’il traite (informations visuelles, sonores…).
Ces dernières sont comparées avec les prédictions que fait le cerveau en se basant sur ses propres connaissances : nos souvenirs, nos expériences personnelles. L’objectif premier de l’étude du NINDS était de tester si cette hypothèse pouvait s’appliquer à la façon dont le cerveau se souvient des expériences vécues dans le passé : les souvenirs épisodiques.
La mémoire épisodique stocke les souvenirs de nos expériences personnelles, telle une autobiographie mentale : lorsqu’on raconte ses dernières vacances ou une anecdote datant du lycée, c’est elle qui est mobilisée. De la même façon, elle nous permet de nous projeter dans le futur (quand on se projette dans ses prochaines vacances, par exemple). C’est grâce à elle que nous pouvons nous repérer dans le temps et dans l’espace.
Selon le Docteur Rafi Haque de la Faculté de Médecine de l’Université Emory (Atlanta, États-Unis), co-auteur de l’étude, « le codage prédictif indique que le cerveau optimise l'activité neuronale pour le traitement de l'information. En d'autres termes, la théorie prévoit que le cerveau utilise plus de ressources pour traiter de nouvelles informations que pour les choses que nous connaissons bien. C’est ainsi que nous apprenons à nous attendre aux choses communes, fréquentes : par exemple de l’herbe verte ou le chant d’un oiseau ».
Article rédigé par Georges Simmonds pour RT Flash
NIH
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Tel-Aviv (TAU) ont présenté une thérapie génique qui pourrait changer la vie d’enfants atteints de certaines surdités génétiques. Le traitement se base sur l’apport génétique dans les cellules de l’oreille interne. Dans cette étude, les scientifiques se sont concentrés sur la surdité génétique causée par une mutation du gène SYNE4.
« Les enfants qui héritent du gène défectueux de leurs deux parents naissent avec une audition normale, mais ils perdent progressivement leur audition pendant l'enfance. La mutation entraîne une mauvaise localisation des noyaux cellulaires dans les cellules ciliées à l'intérieur de la cochlée de l'oreille interne, qui servent de récepteurs d'ondes sonores et sont essentiels pour l'audition. Ce défaut conduit à la dégénérescence et à la mort éventuelle des cellules ciliées », détaille le professeur Karen Avraham du département de génétique moléculaire humaine et de biochimie de la faculté de médecine de Sackler et de l'école de neurosciences de Sagol de la TAU.
Ces chercheurs ont créé un virus synthétique inoffensif et l'ont utilisé pour délivrer du matériel génétique - une version normale du gène qui est défectueux à la fois dans le modèle de souris et dans les familles humaines touchées. Ils l’ont ensuite injecté dans l’oreille interne de souris porteuses d’une mutation génétique de la surdité peu après leur naissance, afin qu'il pénètre dans les cellules ciliées et libère sa charge génétique.
Ils ont ainsi pu réparer le défaut dans les cellules ciliées et les souris traitées ont développé une audition normale, avec une sensibilité presque identique à celle des souris saines qui n'ont pas la mutation. Cette étude montre que la thérapie génique peut être appliquée avec succès à des modèles murins de perte auditive héréditaire, et elle illustre l'énorme potentiel de la thérapie génique comme traitement de la surdité, qui constitue le handicap sensoriel le plus répandu sur la planète, avec environ un demi-milliard de personnes souffrant d’une perte auditive, dont près de la moitié est liée à une mutation génétique.
Article rédigé par Georges Simmonds pour RT Flash
EMBO
|
|
|
|
|
|
|
|
Des scientifiques de l’Université Penn State se sont intéressés à l’efficacité de l’opération de chirurgie dans le traitement de ces cancers avancés. « Les résultats des études précédentes ont été remis en question à cause du faible nombre de participants ou parce que ceux-ci ne recevaient pas de chimiothérapie ou autre traitement systémique », explique l’autrice principale de cette recherche, Kelly Stahl. Avec son équipe, elle a comparé le taux de survie des personnes selon différents types de traitements.
Ces scientifiques ont analysé les cas de près de 13 000 personnes atteintes d’un cancer du sein de stade IV, soit le plus avancé. Ils les ont classées selon différents critères : traitement uniquement systémique (chimiothérapie, hormonothérapie ou immunothérapie), traitement systémique et chirurgie ou traitement systémique, chirurgie et radiothérapie. L’équipe de recherche conclut que les patients ayant été soignés par traitement systémique et par chirurgie vivent plus longtemps que ceux soignés différemment.
Ils se sont intéressés à un autre critère : le récepteur 2 du facteur de croissance épidermique humain (HER2). Cette protéine est parfois surexprimée en cas de cancer, ce qui participe à l’augmentation du nombre de cellules cancéreuses. Les médecins qualifient alors le cancer de HER2 positif.
Dans cette étude, les scientifiques ont constaté que les personnes atteintes de ce type de cancer réagissaient particulièrement bien au traitement par chirurgie. « Nous avons aussi constaté qu’une chimiothérapie avant la chirurgie offre de meilleurs résultats en terme de taux de survie pour les patients positifs au HER2 », ajoute Kelly Stahl. Elle précise que, quel que soit le statut du HER2, la chirurgie est généralement plus efficace lorsqu’elle est pratiquée après la chimiothérapie ou tout autre traitement ciblé.
Article rédigé par Georges Simmonds pour RT Flash
ASO
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|