|
|
|
|
|
NUMERO 925 |
|
|
|
|
|
|
|
Edition du 01 Décembre 2017
|
|
|
|
|
Edito
L’Atlas des cellules humaines : une aventure plus vaste que la cartographie du génome
En 2003, alors qu’était publiée la première cartographie complète du génome humain après 13 ans de recherches, des scientifiques en Suède, appartenant à l'Institut Royal de Technologie de Stockholm et l'Université d'Uppsala, se sont lancés dans un projet scientifique encore plus ambitieux qui consiste à cartographier chacune des protéines présentes dans le corps humain. Ce projet d’Atlas des protéines humaines devrait permettre un bond en avant sans précédent dans la compréhension des mécanismes du vivant et la mise au point de nouvelles thérapies bien plus efficaces pour combattre l’ensemble des maladies touchant l’être humain.
Les protéines, qui se comptent par dizaines de milliers, sont présentes dans les cellules humaines et impliquées dans les très nombreuses fonctions de notre organisme, tant chez les personne saines que malades. C’est pourquoi elles constituent des cibles essentielles pour de nombreuses molécules pharmaceutiques.
Expliquant l'importance de l'Atlas des protéines humaines, le Professeur Mathias Uhlen, fondateur du projet, a déclaré : « Les protéines sont les éléments constitutifs essentiels de la vie humaine. Elles gouvernent chacune des façons dont le corps grandit et se développe. Si nous pouvons identifier et comprendre correctement le comportement de chacune de ces 20 000 protéines, nous obtiendrons la clé qui nous permettra de comprendre comment et pourquoi les maladies se développent, ouvrant la marche pour un plus grand nombre de traitements efficaces et de meilleurs outils de diagnostic. »
Participant au vaste projet international de protéomique lancé en 2011 sur le modèle de celui qui existe en génomique, deux équipes ont publié en 2014 les premiers résultats de ce protéome humain. La première est dirigée par Akhilesh Pandey de la John Hopkins University, à Baltimore et la seconde par Bernhard Küster de l’Université technologique de Munich. Ces résultats intermédiaires portent sur 84 %des gènes humains, soit près de 18.000 (Voir Nature).
L’ensemble de ces chercheurs ont travaillé à partir d’échantillons de 17 tissus différents d’adultes, 7 tissus de fœtus et 6 cellules hématopoïétiques (celles qui génèrent les cellules sanguines). Il a ainsi été possible de corréler le protéome de chacun de ces tissus ou de ces types de cellules avec les gènes spécifiques qui s’y expriment. Ce cadre méthodologique rigoureux va permettre pour la première fois aux chercheurs de comparer le protéome presque complet d’un fœtus et d’un être humain adulte, ce qui devrait faire considérablement progresser la connaissance de l’embryogénèse et des mécanismes de développement des tissus et organes.
De la même manière que la cartographie complète du génome humain a été rendu possible par la mise au point de machines à séquencer et par l’analyse bio- informatique des morceaux du génome, cet atlas du protéome s’appuie principalement sur la combinaison de deux outils scientifiques : d’une part, la spectrométrie de masse et d’autre part le traitement informatique des données massives (big data).
La spectrométrie de masse permet d'identifier la structure et la composition de ces protéines et cette première étape a eu recours à plus de 100 millions de spectres de masses. L’équipe allemande précise que son dispositif informatique dispose d’une mémoire vive de 2 téraoctets (2 mille milliards d’octets), une capacité de stockage rendue nécessaire pour pouvoir analyser en temps réel chacun des 71 millions de peptides inventoriés et stockés sous forme numérique dans cette base de données.
La principale surprise de ces recherches a été sans conteste la découverte de 193 protéines qui sont liées à des séquences ADN dites « inutiles », car en principe non codantes. "Le fait que 193 protéines proviennent de séquences ADN censées être non codantes signifie que nous ne comprenons pas complètement comment les cellules lisent notre ADN, car ces séquences codent bel et bien les protéines" explique Akhilesh Pandey, professeur à la John Hopkins University, à Baltimore.
Cette découverte laisse entendre que le génome humain est loin d’avoir livré tous ses secrets et doit être bien plus complexe et subtil que prévu. Le protéome - l’ensemble des protéines d’un être humain - est bien plus vaste que le génome car de nombreux gènes peuvent coder pour plusieurs protéines. Cette publication est une étape majeure vers un atlas complet du protéome humain qui devra recenser l'ensemble des protéines correspondant aux 20.300 gènes codants chez l’homme.
En janvier 2015, (Voir Science), un article scientifique publié dans la revue Science a présenté la première analyse réalisée sur base du Human Protein Atlas, comprenant notamment un inventaire précis des nombreuses protéines impliquées dans les cancers, le nombre des protéines circulant dans le flux sanguin ainsi que les cibles de tous les médicaments commercialisés.
Dans le cadre des travaux menés par plusieurs laboratoires dans le monde collaborant à cet « Human Proteome Project » (Projet de Protéome Humain), il faut par ailleurs souligner que l’équipe espagnole du Docteur Fuentes (Institut de recherche sur le cancer de Salamanque) a découvert pas moins de 9 000 protéines jusque-là inconnues dans les lignées cellulaires de lymphomes (cancer du système lymphatique) à cellules B.
"Pour la première fois, nous avons réussi à intégrer la relation entre les profils d'expression des protéines et les modèles d'expression génique", explique le Docteur Fuentes, qui ajoute « On estime qu'une cellule est capable d'exprimer constitutivement la moitié de son génome". Cette équipe va à présent tenter d’établir un vaste ensemble de cartes protéiques des différents stades de maturation de ces cellules pathologiques. L'objectif est de comprendre les mécanismes impliqués dans l'origine et le développement de plusieurs types de cancers.
En février 2015, une nouvelle étape majeure a été franchie avec la publication, au terme de dix ans d’efforts, de la première carte exhaustive de l’épigénome humain, c’est-à-dire de l’ensemble des modifications, sous l’effet de facteurs environnementaux (mode de vie, alimentation, pollution) concernant la régulation et l’expression de nos gènes (Voir Nature). Ce gigantesque inventaire regroupe l’épigénome de 111 types de cellules musculaires, cardiaques, hépatiques, dermatologiques et fœtales.
Dans le cadre de ces recherches, des chercheurs de la Harvard Medical School du Massachusetts ont notamment pu montrer que la signature génétique unique d'une cellule cancéreuse pouvait être utilisée pour identifier la cellule d'origine d'une tumeur. Cet inventaire concernant l’épigénétique confirme également que l’ « ADN-poubelle », qui constitue plus de 98 % de l’ensemble de notre ADN (le reste étant constitué par nos 20 000 gènes) joue sans doute un rôle bien plus important que prévu dans l’expression de nos gènes et les altérations ou mutations qui peuvent affecter notre génome et provoquer de multiples maladies.
Prolongeant et complétant ces initiatives et travaux portant sur l’exploration et le recensement complet du génome, de l’épigénome et du protéome, des chercheurs américains et britanniques veulent à présent aller encore plus loin. Ils ont lancé en octobre 2016, une initiative de longue haleine qui doit aboutir au recensement et à la description de toutes les cellules humaines dans un immense atlas qui devrait profondément bouleverser la compréhension du développement et du fonctionnement de notre organisme et la connaissance des causes multiples qui provoquent les maladies les plus fréquentes et les plus graves chez l’homme, à commencer bien sûr par les cancers, les maladies cardio-vasculaires et les maladies neurodégénératives.
Ce projet, qui ne devrait pas être achevé avant une dizaine d’années, est actuellement piloté par des chercheurs américains d'Harvard et du Massachusetts Institute of Technology MIT ainsi que du Sanger Institute and Wellcome Trust en Grande-Bretagne. Ce nouvel atlas vise à recenser les types et les priorités de toutes les cellules contenues dans tous les tissus et tous les organes humains afin d'établir une carte de référence d'un corps sain.
Bien que nos cellules constituent les unités fondamentales de notre organisme, on ne sait toujours pas combien de types de cellules différents sont présents dans notre corps (300 sont connus mais leur nombre réel est sans doute plus important) et quelles fonctions exactes remplissent ces différentes catégories de cellules.
C’est pourquoi il est si important de mieux comprendre la complexité globale et individuelle des 37 000 milliards de cellules environ qui constituent un être humain adulte. Comme le souligne l’une des deux co-directrices de ce projet hors-normes, Aviv Regev, du MIT (l’autre co-directrice est Sarah Teichmann du Wellcome Trust Sanger Institute), « Nous avons maintenant les outils pour comprendre de quoi nous sommes constitués, ce qui nous permet de comprendre comment notre corps fonctionne et de déterminer comment le dysfonctionnement de tous ces éléments se traduit par la maladie ».
Ce « Human Cell Atlas Project, en partie financé par la Chan Zuckerberg Initiative, regroupe, dans une première phase 38 projets pilotes, émanant de huit pays, dont la France. Ces différents projets se répartissent dans six catégories : cerveau, système immunitaire, manipulation et traitement des tissus, appareil gastro-intestinal, peau, et développement de technologies. « Le HCA fournira une base à la compréhension des processus biologiques humains fondamentaux » précise la feuille du route de ce projet qui, il est important de le souligner, proposera sa base de données en libre accès à tous les chercheurs et médecins du monde.
Si un tel projet est à présent réalisable dans un délai raisonnable, c’est parce que 3 technologies sont en train de converger pour rendre possible la cartographie de l’ensemble des cellules du corps humain. La première est la « microfluidique cellulaire » qui permet de séparer et de répertorier chaque cellule pour l’étudier. La seconde est le séquençage à très grande vitesse, qui permet de repérer en 24 heures les gènes actifs au sein de plus de 10 000 cellules, puis de les décoder. La troisième technologie concerne les nouveaux outils qui permettent de localiser et rattacher chaque type de cellule, en fonction de sa spécificité génétique, à un organe ou à un tissu humain.
Lorsque cet atlas des cellules humaines sera achevé, et je fais le pari qu’il le sera plus vite que prévu, compte tenu des avancées qui vont encore intervenir dans les domaines du séquençage, de la microfluidique, de la bioinformatique et de l’intelligence artificielle, la biologie et la médecine basculeront dans une nouvelle ère que nous avons encore de la peine à imaginer. Ce fabuleux atlas, articulé à ceux du génome, de l’épigénome et du protéome, qui ne cessent eux-aussi d s'enrichir, ouvrira en effet la voie à une médecine prédictive, proactive et totalement individualisée.
En s’appuyant sur ces ensembles de bases de données biologiques gigantesques et en les recoupant, grâce aux outils d’intelligence artificielle, avec les données spécifiques du patient, la médecine qui émergera vers 2030 pourra, non seulement prévenir de manière personnalisée un grand nombre de pathologies à l’aide de thérapies géniques d’une extrême précision, mais pourra également concevoir et produire des molécules et médicaments « à la carte », en fonction des caractéristiques biologiques et génétiques uniques de chaque malade. Cette médecine du futur pourra enfin évaluer pratiquement en temps réel l’efficacité thérapeutique des solutions proposées au patient et ajuster sans cesse ses traitements en fonction de la réponse observée et de l’évolution de la maladie.
Il faudra cependant veiller avec la plus grande attention à ce que cette nouvelle médecine préventive, prédictive personnalisée et numérique soit accessible à tous et s’intègre dans une démarche humaniste et globale de respect et d’écoute du malade.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
AlphaGo, l'intelligence artificielle joueuse de go, mise au point par Google, est désormais capable d'apprendre par elle-même. En quelques jours, elle a développé sa propre banque de coups, se plaçant ainsi très nettement au-dessus des joueurs humains. Cette nouvelle faculté ouvre la voie aux IA de nouvelle génération.
Les premières versions de l’intelligence artificielle de DeepMind nécessitaient que plusieurs spécialistes leur enseignent les meilleures ouvertures de jeu ou certaines stratégies incontournables à haut niveau. Pour AlphaGo Zéro, il a suffi de lui inculquer les règles de base du jeu.
Ensuite, pour s'améliorer, l’IA a joué plusieurs millions de parties contre elle-même. « A chaque partie, le réseau neuronal est recombiné avec un algorithme de recherche, pour créer une version mise à jour d'AlphaGo Zero. Le processus est répété et, à chaque itération, la performance du système est améliorée, augmentant ainsi la qualité des parties jouées et la précision du réseau neuronal », détaille DeepMind dans un communiqué.
Cette forme d'autoapprentissage a permis à AlphaGo Zero de se mesurer au bout de trois jours à la version qui a été utilisée en 2016 pour battre le champion coréen Lee Sedol. Et le résultat est sans appel : l’IA en apprentissage autonome a défait son homologue supervisée, 100 parties à 0…
Au bout de 21 jours, le logiciel a atteint, seul, un niveau permettant de battre les 60 meilleurs joueurs de go du monde. Pour DeepMind, la faculté d’auto apprentissage de son programme est une réponse à la critique formulée par ses principaux détracteurs : la part de connaissance humaine injectée dans le moteur de calcul.
Ce reproche avait également été exprimé en 1997, lorsque le programme joueur d’échecs d’IBM, Deep Blue, avait battu le champion du monde de l’époque Gary Kasparov. Pour de nombreux experts, l’apprentissage autonome amorce bel et bien une nouvelle ère pour les intelligences artificielles.
Article rédigé par Georges Simmonds pour RT Flash
Industrie & Technologies
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Après Tesla, dont la batterie résidentielle Powerwall avait fait sensation il y a deux ans, l’industriel Eaton, spécialiste de la gestion énergétique, vient de présenter sa solution énergétique de stockage pour les particuliers.
Baptisé xStorage Home, ce système ressemble à un gros radiateur mural, pesant 135 kg et mesurant 1,20 mètre de haut. Cette imposante batterie Lithium-Ion bénéficie d’une capacité entre 4,2 et 7,5 kWh, selon les modèles, et coûte entre 1100 et 1350 €/kWh, hors installation.
Connecté à la fois aux panneaux photovoltaïques (PV) existants, au tableau électrique (monophasé) de l’habitation et au réseau électrique, ce système alimente les équipements électriques en énergie quand la production d'énergie solaire est opérationnelle, avec une puissance située entre 3600 et 6000 watts, et devient un moyen de réduire la facture d’électricité.
Mais le système peut aussi stocker le surplus d'électricité produite et le réinjecter dans le réseau du distributeur, moyennant rétribution. Enfin, en cas de coupure de courant, c’est une alimentation de secours qui subvient aux besoins énergétiques des équipements essentiels – réfrigérateur, éclairage… – en attendant que la situation normale se rétablisse.
xStorage Home a l’avantage d’être équipé d’une sortie AC bidirectionnelle, qui injecte du courant alternatif sur le réseau électrique domestique ou, inversement, recharge la batterie à partir de ce même réseau. Le port USB pouvant accueillir une clé Wifi est une autre particularité qui en fait un dispositif connecté, pilotable à partir d’un smartphone.
La garantie des batteries va de pair, de cinq ans pour le premier modèle à dix ans pour les deux suivants. xStorage arrive sur le marché au moment où le cadre règlementaire français connaît un évolution notable. En effet, depuis le début de l'année, l’autoconsommation d’énergie est en effet favorisée au détriment de la seule revente d’électricité, de moins en moins rentable. Résultat : selon Enedis, 14 000 installations d’autoproduction énergétique ont été installées depuis l’an dernier, soit une progression de 50 % en un an.
Article rédigé par Georges Simmonds pour RT Flash
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
Selon une étude menée par des chercheurs l’Université de Stanford, 139 pays utiliseront uniquement de l’énergie renouvelable en 2050. En produisant leur électricité à partir de l’eau, du soleil ou de l’air, ces pays devraient créer 24 millions d’emplois et permettre une diminution considérable de mortalité liée à la pollution de l'air.
Les scientifiques estiment qu’en 2030, la plupart des pays seront capables d’utiliser quatre-vingts pour cent d’énergies renouvelables. Il est ainsi fortement probable de passer à cent pour cent d’utilisation d’énergie verte en 2050. Grâce à cela, le climat planétaire évitera une hausse d’un et demi degré Celsius de température.
Bien que ce pari paraisse ambitieux, les chercheurs affirment dans la revue Joule que sa réalisation est tout à fait possible. Ces scientifiques ont imaginé l’utilisation de l’électricité dans la majorité des secteurs comme dans la pêche, l’agriculture, l’industrie ou encore dans le secteur des transports.
Au cours de leurs études, les scientifiques ont exclu le nucléaire ainsi que les biocarburants dans leur prévision pour 2050 en raison de leur coût mais aussi de leurs impacts jugés négatifs sur l’environnement. Seules les énergies de l’air, de l’eau et du soleil ont été retenues pour atténuer les impacts déjà importants de l’activité humaine sur la nature.
Si l’on tient compte du contexte actuel et que l’on ne change rien à l’utilisation actuelle de l’énergie, le besoin en énergie étant de 12.105 TW en 2012 passerait à 20.000 en 2050. Par contre, si l’on utilisait l’énergie renouvelable, les besoin finaux des utilisateurs pourraient se stabiliser à 11.840 TW.
Article rédigé par Georges Simmonds pour RT Flash
Stanford
|
|
|
|
|
|
|
|
Un champ d'éoliennes flottantes a commencé à produire de l'électricité au large de l'Ecosse. Cet ensemble d'éoliennes en mer, appelé Hywind, dispose d'une capacité de 30 Mégawatts, capable d'alimenter en courant quelque 20.000 foyers, a précisé le géant norvégien.
Installé en mer du Nord à 25 km au large de Peterhead (Aberdeenshire, nord-est de l'Ecosse), ce parc de vastes hélices tournant au gré des vents est le premier de ce type à alimenter un réseau électrique. Seuls des parcs expérimentaux avaient été installés jusqu'à présent sur la planète. « Hywind peut fonctionner dans des eaux d'une profondeur allant jusqu'à 800 mètres, ce qui permet d'ouvrir à l'éolien offshore des territoires jusqu'à présent inaccessibles », s'est réjouie Irene Rummelhoff, vice-présidente exécutive de l'activité des énergies alternatives chez Statoil.
Le lancement de ce parc montre que la technologie éolienne flottante peut être viable commercialement là où la mer est habituellement trop profonde pour les éoliennes offshore classiques. C'est donc un verrou majeur qui saute car la production éolienne marine à proximité des côtes se heurte fréquemment à l'opposition des populations locales, en raison de l'impact visuel non négligeable de ces machines géantes.
Pour pouvoir stocker une partie de l'électricité excédentaire produite, il est également prévu d'installer un nouveau système de batteries, appelé Batwind. Ce système de batteries au lithium sera doté d'une capacité d'1 MW, ont précisé les partenaires.
Bénéficiant des vents vigoureux, l'énergie éolienne sur terre et sur mer représente déjà 11 % de la production d'électricité britannique et la Grande-Bretagne est le leader mondial de l'éolien marin, avec un gros tiers des capacités mondiales, d'après le Global Wind Energy Council.
Quant à la France, elle tente de rattraper son retard en matière d'éolien flottant. La première éolienne en mer du pays a été inaugurée le 13 octobre dernier à Saint-Nazaire. Baptisé Floatgen, cette éolienne est elle aussi flottante, non fixée donc au fond de l'océan. L’engin, dont la construction aura duré un an et demi, sera installé ces prochains jours au large du Croisic (Loire-Atlantique), à environ 20 km des côtes. Sa mise en service s’effectuera début 2018.
Article rédigé par Georges Simmonds pour RT Flash
20 minutes
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon une étude américaine conduite par Andrea J. Garner et Michael E. Mann, la ville de New-York risque de subir des inondations massives tous les cinq ans sous l'effet du changement climatique.
Ces recherches publiées dans les comptes rendus de l'Académie américaine des sciences (PNAS) s'appuient sur le modèle climatique RCP8.5, le plus pessimiste parmi les quatre envisagés qui font référence au sein de la communauté scientifique. D'après l'étude, la fréquence d'une inondation majeure à New-York était d'une fois tous les 500 ans avant la révolution industrielle (avant 1800).
Durant la période de 1970 à 2005, le laps de temps moyen entre deux événements climatiques de ce type est passé à vingt-cinq ans, toujours selon les données de l'étude. Pour la période allant de 2030 à 2045, les auteurs prévoient que la fréquence tombe à cinq ans, en intégrant l'hypothèse d'une augmentation des émissions de gaz à effet de serre.
L'événement climatique correspondrait à une élévation de 2,25 mètres du niveau de la mer, selon le modèle retenu par les chercheurs, dont le premier auteur est Andra Garner, actuellement en poste à l'Université de Rutgers (nord-est des Etats-Unis), au département des sciences des côtes et des mers.
Par comparaison, l'élévation consécutive à l'ouragan Sandy, qui a frappé New-York en 2012, a été de 2,8 mètres. Sandy a causé la mort de plus de 40 personnes à New-York et 147 au total, mais aussi coûté environ 42 milliards de dollars à l'Etat de New-York.
L'étude indique qu'en retenant le même scénario pessimiste et en intégrant la fonte partielle de l'Antarctique, l'élévation standard de 2,25 mètres au-dessus du niveau moyen de la mer deviendrait permanente à partir de 2280.
Article rédigé par Georges Simmonds pour RT Flash
PNAS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de l'Illinois à Urbana-Champaign ont présenté un remarquable "laboratoire sur puce" capable, grâce à la microfluidique, de détecter rapidement plusieurs agents pathogènes. Cette nouvelle plate-forme de diagnostic des maladies infectieuses est utilisable quel que soit l’environnement de soins, il suffit d’un smartphone associé à ce kit de test au format d'une carte de crédit.
Les maladies infectieuses demeurent les principaux facteurs de décès et d'incapacités dans le monde et la récente épidémie d'infection à Zika a révélé l'immense besoin de tests simples, sensibles et faciles à lire. Les résultats des tests démontrent que ce système intégré est capable de détecter et quantifier la présence de virus Zika, de la dengue et du chikungunya dans une gouttelette de sang.
Ce système portable et intelligent, à faible coût, constitue une solution prometteuse pour relever les défis posés par le diagnostic des maladies infectieuses, en particulier dans les environnements à ressources limitées ou dans les situations où le résultat est nécessaire immédiatement.
L'intégration de l'outil de diagnostic à la technologie mobile permet de dispenser des soins personnalisés aux patients et facilite la gestion de l'information pour les organisations ou les professionnels de santé. Enfin, l’agrégation de ces données peut également contribuer à la surveillance épidémiologique.
La technologie est destinée à permettre aux cliniciens de diagnostiquer rapidement les maladies, à la fois au cabinet, en centre ou en établissement de santé ou sur le terrain, de manière à pouvoir prendre des décisions plus précoces et plus éclairées sur la prise en charge des patients. L’outil s’avère donc prometteur non seulement pour le traitement des patients mais également pour un meilleur contrôle des épidémies.
Article rédigé par Georges Simmonds pour RT Flash
ACS
|
|
|
|
|
|
|
|
On savait déjà que l’obésité constituait un facteur de risque de cancer du sein sans que l’on comprenne vraiment pourquoi. Jusqu’ici, pour expliquer l’association graisse/cancer du sein, plusieurs hypothèses ont été proposées, notamment celles de la sécrétion d’insuline, de cytokines inflammatoires ou d’œstrogènes par le tissu adipeux.
Mais des chercheurs de l'Université de l’Illinois ont montré que le 27 hydroxycholestérol (27 HC), un métabolite du cholestérol, avait la capacité de détourner les cellules immunitaires pour accélérer la croissance tumorale. L’étude réalisée chez la souris a également montré que les statines anticholestérolémiants inhibaient l’action du métabolite du cholestérol et limitaient la croissance tumorale.
« Le cancer du sein touche environ une femme sur 8. Nous avons développé des stratégies relativement bonnes pour traiter les cancers débutants, mais quand le cancer s’étend à d’autres organes, nous n’avons, pour l’instant, pas vraiment de thérapies efficaces. Nous voulons donc comprendre ce qui dirige la dissémination et voir si nous pouvons l’arrêter avec des médicaments », a expliqué l’auteur principal de l’étude, Erik Nelson.
En pratique, après avoir nourri des souris atteintes de cancers mammaires ER- avec un régime riche en cholestérol, les chercheurs ont constaté que les taux élevés de cholestérol accéléraient la croissance tumorale et la dissémination métastatique (métastases pulmonaires). En outre, ils ont pu montrer que les souris traitées avec de l’atorvastatine avaient moins de métastases. A posteriori, en inhibant l’enzyme synthétisant le 27HC (CYP27A1), les chercheurs ont observé une baisse de la dissémination métastatique. Cette étude suggère qu’un médicament ciblant l’enzyme pourrait être une thérapeutique efficace.
Désormais, l’équipe cherche à mieux comprendre la voie par laquelle le 27HC agit sur les cellules immunitaires mais aussi à savoir si le métabolite du cholestérol agit de la même façon chez les humains. « Nous espérons développer des petites molécules-médicaments pour inhiber 27HC », a indiqué Erik Nelson.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Selon une étude américaine, si au cours des 10 prochaines années, la grande majorité des fumeurs devenaient vapoteurs, des millions de vies pourraient être sauvées d’ici 2100 aux Etats-Unis. Pourtant, cette incitation à remplacer la cigarette par la e-cigarette ne fait pas l’unanimité auprès de tous les acteurs de la lutte anti-tabac.
Alors que, sur le long terme, le tabagisme tue toujours deux fumeurs sur trois, l’équipe du Docteur David T Levy (Service d’oncologie, Lombardi Comprehensive Cancer Center, Washington, Etats-Unis) a tenté d'évaluer combien de morts pourraient être évitées si la plupart de fumeurs passaient au vapotage. Pour cela, ils ont envisagé deux scénarios, l’un pessimiste, l’autre optimiste.
Dans l’hypothèse « optimiste », les chercheurs estiment que 6,6 millions de morts pourraient être évitées d'ici 2100 aux Etats-Unis par rapport au scénario « status quo », soit si la situation restait similaire à celle de 2016, où, 19,3 % des hommes et 14,1 % des femmes fumaient aux Etats-Unis. Globalement, cela représenterait un quart des morts évitées (26,1 millions). Dans l’hypothèse « pessimiste », les chercheurs estiment que 1,6 million de vies seraient épargnées d'ici 2100, soit 6 % de décès en moins comparé au scénario « status quo ».
« Notre analyse montre qu’une stratégie de remplacement de la cigarette par la e-cigarette apporte des bénéfices substantiels, même dans l’hypothèse la plus conservatrice concernant les risques », concluent les chercheurs qui ajoutent « Nous observons une baisse drastique du tabagisme chez les personnes qui passent à l’e-cigarette. Et l’important est que ces personnes arrêtent le tabac".
Article rédigé par Georges Simmonds pour RT Flash
BMJ
|
|
|
|
|
|
|
|
Selon une étude réalisée par le Collège Américain de Cardiologie, les patients souffrant de maladies cardiaques qui pratiquent le yoga et l'exercice aérobique profitent à la fois d’une réduction de la pression artérielle, de l'indice de masse corporelle (IMC) et des niveaux de cholestérol par rapport aux patients qui pratiquent, soit le yoga, soit l'exercice aérobique.
l'étude a été menée avec 750 patients diagnostiqués avec maladie coronarienne. 225 participants ont été invités à suivre un programme d’exercices aérobiques, 240 patients à pratiquer le yoga indien et 285 à participer aux 2 programmes à la fois. Chaque groupe a suivi une formation de 3 mois/6 mois de yoga et / ou d'exercices aérobiques.
L’étude montre que la pratique de l’exercice aérobique seul et du yoga seul apportent des réductions similaires de la pression artérielle, du cholestérol total, des triglycérides, du LDL, du poids et du tour de taille.
Mais ces recherches montrent également que la pratique combinée d'exercices de yoga et d'aérobie permet une réduction du risque cardiaque 2 fois plus importante, dont une amélioration significative de la fraction d'éjection ventriculaire gauche, de la fonction diastolique et de la capacité d'exercice.
Pratiquer de manière combinée le yoga et l'exercice aérobique permet non seulement de réduire le stress mental, physique mais aussi vasculaire et contribue à la prévention du risque de décès et de morbidité cardiovasculaires.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
A ce jour, il existe deux modèles synthétiques permettant de mimer des cellules vivantes : les vésicules lipidiques et les coacervats. Les vésicules possèdent une membrane de lipides qui encapsule un volume d'eau et offre ainsi une structure plus proche de celle des cellules naturelles. Cependant, il est très difficile d’encapsuler les biomolécules, telles que l’ADN ou les protéines, à l’intérieur de ces vésicules.
Les coacervats sont des gouttelettes riches en un composé chimique, par exemple un polymère, et représentent des compartiments de choix dans le sens où des biomolécules sont spontanément séquestrées à l’intérieur. Cependant, les coacervats ne possèdent pas de membrane à leur surface, ce qui ne permet pas d’encapsuler ces biomolécules ni de contrôler les échanges entre milieux extérieurs et intérieurs.
Pour surmonter cette situation, des chercheurs du CNRS ont réussi à développer un système «hybride» formant des coacervats qui peuvent se transformer en vésicules par une simple diminution du potentiel hydrogène (pH). Comme ces coacervats peuvent séquestrer des biomolécules, les pré-concentrant dans ces compartiments, leur transformation en vésicules permet alors d’encapsuler ADN et protéines.
Enfin, les chercheurs ont démontré que des enzymes peuvent être concentrées dans ces vésicules, tout en conservant leur activité. Ce système représente donc un premier pas vers la génération de cellules synthétiques. L'approche novatrice consiste à unifier les deux modèles existants que sont les vésicules et les coacervats en un système unique pouvant passer de l'un à l'autre, rassemblant ainsi les avantages des deux systèmes.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Des chirurgiens de l'hôpital Saint-Louis de Paris ont réussi une greffe de peau à 95 % sur un grand brûlé, grâce à un don de peau de son frère jumeau, ce qui constitue un première mondiale !
Le patient est un jeune homme de 33 ans. Victime d’un accident du travail en septembre 2016, il en était ressorti brûlé au troisième degré sur 95 % de son corps. Arrivé à l'hôpital dans un état critique avec le Samu, il a été immédiatement placé en coma artificiel. Son pronostic vital était engagé. En effet, lors de ce type d'accident, les brûlures agissent comme un poison pour le patient en envoyant des toxines. Elles peuvent aussi toucher des organes vitaux et provoquer un état de choc. Enfin, dernier risque, celui de l'infection.
Les médecins ont commencé par ôter la peau brûlée. C'est alors que son frère jumeau s'est proposé de lui donner sa peau. Les médecins l'ont néanmoins prévenu qu'il aurait des cicatrices et que la greffe de sa peau ne suffirait peut-être pas à sauver son frère.
Tout s'est ensuite déroulé rapidement. Les deux frères jumeaux ont été pris en charge par l’équipe de chirurgie plastique et reconstructrice du Professeur Maurice Mimoun et l’équipe d’anesthésie-réanimation du Professeur Alexandre Mebazaan de l’hôpital Saint-Louis de Paris. Pour sauver la vie du jumeau brûlé, ils ont décidé de tenter, pour la première fois, une greffe de peau sur la totalité de son corps avec celle de son frère jumeau.
Plusieurs opérations, très lourdes, et nécessitant un grand nombre de spécialistes, ont été nécessaires pour réaliser cette chirurgie inédite. Une équipe de chirurgiens et d’anesthésistes de l’hôpital St Louis a prélevé la peau de son crâne et de ses cuisses, afin de laisser le minimum de cicatrices visibles. Les chirurgiens ont utilisé des filets de peau extrêmement fins, d’un dixième de millimètres d’épaisseur.
La peau de son jumeau lui a été immédiatement greffée sur toute la face avant du corps. Le processus de cicatrisation a immédiatement commencé. Il restait alors l’autre moitié du corps à greffer. Dans l’intervalle, la peau du donneur avait déjà repoussé, l’équipe a ainsi pu de nouveau prélever la peau de son crâne et de son dos. Cette peau a cette fois-ci été greffée sur l’arrière du corps du patient. Au total, le jumeau donneur a donné 50 % de sa peau.
Cette prouesse médicale est une première dans l’histoire de la médecine. Jusqu’à présent, des greffes de peau à partir de donneurs morts ont été régulièrement pratiquées mais ce type de greffe est toujours rejetée au bout de quelques semaines. Mais cette fois, il n'y a pas eu de rejet car le donneur, le jumeau homozygote du patient, est porteur du même capital génétique. Le receveur pourra donc vivre avec la peau de son frère sans prendre de traitement immunosuppresseur.
Cette greffe a sauvé la vie de Franck qui a quitté l'hôpital quatre mois après les interventions. Aujourd'hui, il marche à nouveau et poursuit sa rééducation dans un centre spécialisé. Cette performance chirurgicale a aussi mis à jour des processus étonnants de régénération de la peau. Elle ouvre ainsi la voie à des thérapeutiques innovantes et encourage la mise au point d’une peau universelle chez les grands brûlés.
Article rédigé par Georges Simmonds pour RT Flash
Sciences et Avenir
|
|
|
|
|
|
|
|
On savait déjà modifier l’ADN de façon ciblée, grâce à l'outil Crispr-Cas9, on sait maintenant modifier son produit direct : l’ARN. Des scientifiques du MIT dirigés par Feng Zheng ont en effet conçu un nouveau système moléculaire, baptisé REPAIR (pour « RNA Editing for Programmable A to I Replacement ») pour modifier l’ARN des cellules humaines sans toucher à l’ADN. L’édition de l’ARN, qui peut modifier les produits des gènes sans changer le génome, présente un grand potentiel pour la recherche et la clinique.
L’expression des gènes se fait par une transcription de l’ADN en ARN, qui lui-même est traduit en protéines aux rôles divers. Dans le cas de maladies génétiques, ou pour tester des hypothèses de recherche, il est fondamental pour les chercheurs de pouvoir corriger le gène impliqué ou les produits de ce gène.
Deux chercheuses française et américaine avaient ainsi découvert en 2012 l’enzyme d’origine bactérienne CRISPR-Cas9, capable de fixer, couper ou ajouter des gènes, à l’endroit précis de l’ADN que l’on a choisi. Très utilisée depuis dans la recherche, cette découverte avait fait l’effet d’une bombe dans le monde scientifique et valu à leurs auteures de nombreux prix.
Après CRISPR-Cas9, c’est un nouvel outil nommé REPAIR basé sur l’enzyme CRISPR-Cas13 associée à une autre protéine qui secoue aujourd’hui le monde du génie génétique. En effet, REPAIR a la capacité de modifier l’ARN et non l’ADN lui-même.
Contrairement à CAS9, REPAIR permet de transformer l’ARN, sans altérer l’ADN et donc de rendre cette correction réversible. En outre, la précision de REPAIR est telle qu’elle peut modifier des lettres (les nucléosides) de la séquence d’ARN visée (équivalentes des ACTG de l’ADN) et spécifiquement transformer les A en I, sans provoquer de mutations indésirables.
Afin de démontrer le potentiel thérapeutique de REPAIR, l’équipe l’a utilisé avec succès pour corriger la mutation pathogène à l’origine de l’anémie de Fanconi qu’ils ont synthétisée puis introduite dans une cellule.
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
Comment savoir si un patient est conscient lorsqu’il est incapable de communiquer ? D’après une étude de l’Inserm menée chez 127 patients âgés de 17 à 80 ans, la modification des battements cardiaques en réponse à une stimulation sonore est un bon indicateur de l’état de conscience.
L’étude des troubles de la conscience distingue schématiquement l’état végétatif, dans lequel le patient est éveillé mais non conscient de l’état de conscience minimale qui correspond à un certain degré de conscience. Distinguer ces deux états est très important pour établir un pronostic sur le devenir neurologique du patient, pour informer les proches et mettre ainsi en œuvre un traitement adapté. Tous les outils développés jusqu’à présent pour déterminer l’état de conscience, comme l’électroencéphalogramme (EEG), l’IRM fonctionnelle ou le PET scan, se concentraient sur le cerveau.
Des chercheurs de l’Inserm ont utilisé une approche novatrice : l’exploration de l’interaction entre le cœur et le cerveau. De précédentes études avaient mis en évidence que les processus « inconscients » du système neuro-végétatif, comme la respiration ou les battements du cœur, pouvaient être modulés par des processus cognitifs conscients. La perception d’une stimulation externe, auditive par exemple, pourrait donc se traduire par un effet sur l’activité cardiaque, et cela d’autant plus facilement que le sujet est conscient.
En étudiant les données de 127 patients en état végétatif ou de conscience minimale, les chercheurs ont constaté que les cycles cardiaques étaient effectivement modulés par la stimulation auditive uniquement chez les patients conscients ou minimalement conscients. Ils ont également montré que ces résultats étaient complémentaires des résultats obtenus en EEG. La combinaison de ces deux tests (test cardiaque et EEG) améliorant nettement les performances de prédiction de l’état de conscience d’un patient.
Ces résultats ouvrent de nouvelles perspectives sur une approche globale pour évaluer l’état de conscience des patients. Les chercheurs souhaitent à présent étendre le cadre à d’autres signaux physiologiques modulés par des processus conscients comme la respiration ou la dilatation des pupilles pour mettre au point un outil complet afin de mieux évaluer l’état de conscience au lit du patient.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Une équipe de médecins de l’hôpital d’Oakland, en Californie, a pour la première fois au monde retiré chez un être humain un gène défectueux pour le remplacer par un gène fonctionnel. Le patient, Brian Madeux, 44 ans, est atteint d’une pathologie génétique rare et très grave : la maladie de Hunter. Dans cette pathologie, un gène ne produit pas une enzyme (l’iduronate-2-sulfatase, IDS) nécessaire au bon fonctionnement de son organisme. Les symptômes peuvent alors être divers : hernies, malformations, insuffisances respiratoires ou encore déficiences intellectuelles.
Les chercheurs américains ont donc décidé de tenter une thérapie génique visant à substituer au gène défectueux de Brian Madeux un autre gène fonctionnel, injecté dans son organisme. Pour atteindre ce but, les chercheurs ont commencé par fabriquer des « ciseaux » génétiques, sous la forme d'une protéine connue sous le nom de « nucléases en doigts de zinc ». Cette protéine permet de découper le brin d’ADN à l’endroit exact du gène défectueux. Ces chercheurs ont ensuite encapsulé deux de ces protéines et un gène de remplacement dans un « véhicule » microscopique (un virus désactivé), destiné à être introduit dans le corps de Brian Madeux.
Pendant trois heures, des milliards de virus désactivés - contenant les ciseaux et le gène - ont donc été envoyés par perfusion dans le corps de Brian. Si tout se déroule comme l'espèrent ces scientifiques, ces virus vont arriver jusqu'au foie et vont y livrer leur cargaison. Les ciseaux devraient ensuite entrer dans le noyau de chaque cellule pour découper son ADN avant que le gène fonctionnel ne vienne s’insérer au bon endroit.
Heureusement, comme le souligne le Docteur Paul Harmatz, de l’hôpital d’Oakland, « Il suffit qu’1 % des cellules du foie de Brian soit modifié pour corriger la maladie ». En effet, une fois le gène inséré dans les cellules de Brian, ce dernier devrait se mettre à fabriquer ses propres enzymes. Mais cette thérapie est très risquée car une telle modification pourrait avoir des conséquences sur le fonctionnement d’autres gènes proches et il faudra environ trois mois pour savoir si la thérapie de Brian Madeux a bien fonctionné.
Jusqu’à présent, ce malade ne pouvait survivre qu'au prix de multiples interventions chirurgicales et d'injections hebdomadaires de l’enzyme manquante. C'est pourquoi, en dépit des risques, Brian Madeux n'a pas hésité lorsque ces médecins et chercheurs lui ont proposé d'être le premier à expérimenter cette thérapie génique.
Si ce traitement révolutionnaire fonctionne, il ne pourra, dans le cas de Brian Madeux, que bloquer l'évolution de sa grave maladie mais sans restaurer les fonctions détruites par cette anomalie génétique. Mais ces chercheurs sont persuadés qu'à terme, il sera possible de détecter très précocement cette maladie génétique et traiter immédiatement par ce type de thérapie génique les enfants qui en sont porteurs, avant que cette pathologie ne se développe.
Article rédigé par Georges Simmonds pour RT Flash
BBC
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|