|
|
Edito
Hyperloop va révolutionner les transports mondiaux
Cette semaine, je reviens sur un sujet que nous avons déjà plusieurs fois abordé mais qui mérite un nouveau développement, à la lumière des récentes avancées technologiques : l’avenir du train et du transport par rail.
La SNCF a validé le 26 juillet 2018 la commande de 100 TGV du futur à Alstom pour un montant proche de 3 milliards d'euros. Les premières livraisons sont prévues pour l’année 2023 et elles s’échelonneront jusqu’en 2033. Au total, la commande des nouveaux TGV coûtera 3 milliards d’euros. Le coût de fabrication de chaque rame est de 25 millions d’euros, contre 30 millions d’euros pour un TGV Duplex, soit une économie de 20 %. Ces nouveaux TGV seront 30 % moins coûteux à l’entretien grâce à des pièces de réparation plus abordables. En outre, ils consommeront 20 % d’énergie en moins et seront recyclable à 97 %.
Ce TGV de nouvelle génération aura deux étages, tout comme le TGV Duplex. Mais contrairement à ses prédécesseurs, ce TGV du futur sera modulable, ce qui permettra à la SNCF de faire varier le nombre et le type de voitures. « Les clients auront plus de place pour eux et leurs affaires. Les motrices ont été raccourcies. Tous les éléments techniques, centimètre par centimètre, ont été repoussés et les armoires diminuées pour gagner de la place pour les voyageurs, les toilettes et les bagages », précise Rachel Picard, directrice générale de Voyages SNCF.
En matière de sécurité et d’entretien, la SNCF a prévu de passer à la maintenance prédictive qui permettra de connaître en temps réel l’état d’usure de l’ensemble des pièces de ce train. Il sera ainsi possible d’anticiper un grand nombre de pannes et de défaillances, ce qui constitue une avancée majeure en matière d’exploitation et de sécurité. Côté confort, ce futur TGV sera à la fois plus silencieux et plus lumineux, grâce à de plus larges baies vitrées, et bénéficiera également d’un système sophistiqué de renouvellement et de purification de l’air.
Mais en dépit de ses nombreuses améliorations et innovations, ce futur TGV n’ira pas plus vite que ses homologues actuels et plafonnera à 320 km/h. En théorie, il serait pourtant possible d’augmenter la vitesse de croisière de ce futur TGV, pour la porter par exemple à 400 km/h, mais ce gain assez modeste de vitesse se ferait, à technologie constante, au prix d’une consommation considérablement accrue d’électricité.
Pour préparer les trains ultrarapides qui circuleront à partir de 2040, chercheurs et ingénieurs sont donc condamnés à une véritable rupture technologique, qui passera très probablement, sinon par l’abandon du rail, du moins par de nouveaux modes de propulsion et de sustentation. Parmi les prétendants les plus sérieux à la succession des trains à grande vitesse, tels que nous les connaissons, l’un des plus crédibles sur le plan technologique est sans conteste le Maglev, acronyme signifiant en anglais « Train à Lévitation Magnétique ». Cette technologie très innovante repose sur un monorail à sustentation électromagnétique : contrairement aux trains actuels, le Maglev n'est plus en contact direct avec les rails. Il « flotte » à quelques centimètres au-dessus de ces derniers, grâce à de puissants champs magnétiques générés par des aimants fixés aux voitures et à des bobines supraconductrices installées dans les rails. Ce saut technologique majeur a permis au Maglev japonais, prototype le plus avancé au monde, de battre en 2015 le record absolu et toutes catégories de vitesse sur rail, avec 603 km/h enregistré (avec des passagers à bord), sur la ligne de Yamanashi.
Cette technologie de sustentation électromagnétique, développée méthodiquement et opiniâtrement par les Japonais depuis plus de 50 ans, est à présent suffisamment maîtrisée pour envisager de passer à une exploitation commerciale sur de longues distances. Le gouvernement japonais a ainsi décidé, en dépit du coût encore très élevé de ce nouveau mode de propulsion et de ses infrastructures, de réaliser d’ici 2037 la première ligne de transport de passagers entièrement électromagnétique, qui reliera Tokyo à Osaka, soit 438 km, qui seront effectués en seulement 1h07, à une vitesse moyenne de 505 km/h !
Le Japon a déjà commencé des travaux sur la première partie de cette ligne, un tronçon reliant Tokyo à Nagoya, long de 285 km et réalisés à 90 % en tunnel. Dès 2027, les passagers pourront emprunter cette première ligne et ne mettront que 40 minutes pour effectuer ce trajet entre deux des plus grandes villes nipponnes. Le gouvernement japonais avait un temps envisagé de moderniser et d’améliorer son TGV actuel, le remarquable Shinkansen, mais ces améliorations n’auraient permis qu’un gain modeste en terme de vitesse, souvent limitée à 285 km/h, en raison des inévitables courbes de la ligne à grande vitesse nippone actuelle, qui ne peut s’affranchir de la topographie tourmentée et très montagneuse du Japon.
Mais derrière le Maglev, et sa vitesse de croisière de 500 km/h, se profile déjà une autre rupture technologique encore plus radicale qui pourrait totalement révolutionner les transports au cours de la deuxième moitié de ce siècle : l’Hyperloop. Ce concept, qui a également plus d’un demi-siècle, consiste à faire circuler des capsules de taille et de capacité variables à très grande vitesse dans des tubes à très basse pression, ce qui permet de limiter drastiquement le phénomène de résistance de l’air avec la consommation d’énergie qui en résulte. Dans un premier temps, Hyperloop transporterait, dans des capsules conçues pour des voyages supersoniques, une trentaine de personnes à des vitesses allant de 1.000 à 1.200 km/h. Ces capsules se succéderaient à un rythme élevé dans des tubes à très basse pression posés sur des pylônes qui seraient implantés en priorité au-dessus d’infrastructures routières ou ferroviaires déjà existantes.
En 2013, le charismatique entrepreneur Elon Musk, patron du fabricant de voitures électriques Tesla et de l’entreprise d’exploration spatiale SpaceX, a relancé de manière très habile cette idée, proposant même de relier en moins de 30 minutes Los Angeles et San Francisco, les deux grandes mégapoles de la côte ouest, par une liaison Hyperloop. À la suite de cette annonce très médiatique, trois entreprises se sont lancées dans cette course technologique, les américaines Virgin Hyperloop One et Hyperloop Transportation Technologies (HTT), et la société canadienne TransPod, qui a récemment ouvert une filiale en France.
Notre Pays est d’ailleurs au cœur des expérimentations mondiales de ce mode futuriste de transport puisque la société Hyperloop Transport Technologies (HTT), créée en 2013 par l'Allemand Dirk Ahlborn, a investi l'ancienne base militaire de Toulouse-Francazal, tandis que la canadienne Transpod, fondée en 2015, réalise ses essais à Droux, dans le Limousin.
Il est intéressant de souligner que Transpod, considéré par beaucoup de spécialistes comme le projet Hyperloop le plus fiable et le plus avancé à ce jour, a sensiblement modifié le concept initial d’Hyperloop proposé par Elon Musk. En effet, alors que Musk prévoyait d’utiliser de l’air comprimé pour assurer la lévitation capsule de transport, Transpod a opté pour des moteurs à induction linéaire et compte utiliser des champs électromagnétiques variables pour propulser ses capsules, tout en assurant leur lévitation stable au-dessus de la surface inférieure du tube.
En septembre 2017, les chercheurs et ingénieurs de Transpod ont publié une étude scientifique très sérieuse, intitulé « le système de transport ultrarapide Transpod, véhicules et infrastructures » (Voir Science Direct).
TransPod envisage, en étroite coopération avec d’autres entreprises et les gouvernements concernés, la construction de plusieurs lignes ultrarapides au Canada et en France, notamment Paris-Le Havre, Paris-Toulouse et Lyon-Saint-Etienne.
De son côté, la société californienne Hyperloop TT (HTT) a signé, en janvier 2017, un accord avec Toulouse Métropole, la Région et l’État, pour implanter son centre de recherche et développement européen sur l’ancienne base militaire de Francazal, au sud de Toulouse. Comme ses concurrents, HTT envisage un système de capsules, d’une longueur de 32 m pour un poids de 5 tonnes, propulsées par des champs électromagnétiques et capables de circuler à plus de 1 000 km/h dans des tubes à très basse pression.
Quant à la société Virgin Hyperloop One, elle a certes annoncé l’année dernière plusieurs projets ambitieux, comme une ligne européenne qui permettrait aux passagers d’effectuer le trajet Vienne-Bratislava-Budapest en moins de 30 minutes, une autre qui relierait (en passant sous la Baltique), en 28 minutes Stockholm à Helsinki, ou encore une ligne Hyperloop de 150 km entre Abu Dhabi, capitale des Émirats arabes unis, et Dubaï. Mais il semble à présent que la réalisation effective de ces projets se heurte à des obstacles technologiques, économiques et financiers beaucoup plus puissants que prévu…
La Chine, cela n’étonnera personne, compte bien ne pas passer à côté de cette révolution technologique des trains hyper-rapides qui, en dépit de beaucoup d’effets d’annonces prématurés, verront très probablement le jour dans une vingtaine d’années. En août 2017, à l’occasion d’un forum sur l’Aérospatiale se tenant à Wuhan, la China Aerospace Science & Industry Corporation (CASIC) a créé la surprise en annonçant que ses chercheurs travaillaient sur un projet baptisé HyperFlight, reposant également sur la sustentation électromagnétique de capsules dans des tubes à basse pression, et visant à concevoir des trains capables de se déplacer à une vitesse maximale de 4000 km/h, soit 10 fois plus vite qu’un TGV et 5 fois plus qu’un avion.
Fidèle à sa stratégie méthodique à long terme, la Chine envisage, dans un premier temps, la construction d'un réseau interurbain régional atteignant une vitesse de 1.000 km/h. Dans un second temps, les Chinois veulent réaliser un réseau national reliant leurs grandes métropoles à une vitesse de 2.000 km/h. Enfin, la troisième étape, à l’horizon 2050, serait la réalisation d’un réseau international pouvant atteindre une vitesse de 4.000 km/h pour relier les 68 pays formant la « nouvelle route de la soie », un ensemble géo économique représentant 4,4 milliards d’habitants et les deux tiers du produit mondial brut…
On le voit, les transports mondiaux terrestres vont connaître d’ici le milieu de ce siècle une extraordinaire révolution, avec l’arrivée de systèmes de propulsion sans doute capables de rivaliser avec les transports aériens, en termes de rapidité, y compris si les vols supersoniques commerciaux redeviennent une réalité d’ici une dizaine d’années, compte tenu du prix moyen du billet qui devrait, à terme, être sensiblement moins élevé en Hyperloop, du moins pour les trajets intracontinentaux.
Reste le coût initial élevé de réalisation des infrastructures nécessaires au développement de l’Hyperloop, de l’ordre de 30 à 40 millions d’euros du kilomètre selon les évaluations. Même si ce coût de départ est inévitablement appelé à diminuer au fil des décennies, à mesure que ces réseaux hyper-rapides s’étendront à travers le monde, les investissements que va nécessiter la construction de ces nouvelles lignes de transports terrestres supersoniques ne pourront être réalisés que dans le cadre d’une coopération continentale entre états et d’un partenariat entre partenaires publics et privés.
Mais il faut ramener ce coût global de construction des infrastructures à son temps de réalisation et à sa zone de couverture. Si l’on prend le cas de l’Europe, et si l’on retient l’estimation haute du prix du kilomètre d’Hyperloop (40 millions d’euros), on peut estimer que la réalisation d’un réseau européen hyper-rapide de 20 000 km utilisant cette technologie Hyperloop, et qui relierait les grandes métropoles de notre continent, coûterait environ 800 milliards d’euros, soit 40 milliards par an pendant 20 ans, un effort financier qui ne représenterait que 0,25 % du PIB de l’Union européenne en 2018…
En revanche, les retombées économiques positives qui pourraient résulter du développement, sur une génération, de ce système de transport révolutionnaire à l’échelle de notre continent, seraient absolument considérables. En mettant à moins de deux heures, le temps moyen de trajet - de centre à centre, avantage décisif sur l’avion - entre les principales mégapoles européennes, l’Hyperloop provoquerait un bouleversement sans précédent en termes de contraction de l’espace et d’échanges économiques, sociaux et cognitifs.
Alors que les élections européennes vont avoir lieu dans quelques semaines, et que l’Europe cherche, on le voit bien, un nouveau souffle pour mieux répondre aux attentes et aux aspirations de ses citoyens, nous devons imaginer, dans ce domaine des transports, comme dans les domaines de la santé, de l’espace, des énergies propres, de l’intelligence artificielle ou encore de l’Internet du futur, de grands projets à long terme qui puissent mobiliser nos sociétés et préparer notre Pays et notre Continent à relever les immenses défis qui les attendent.
Nous voyons bien que les autres grandes puissances politiques et économiques, je pense aux États-Unis mais également au Japon, à la Chine, à l’Inde, lancent à présent des projets scientifiques et technologiques toujours plus ambitieux et audacieux. Face à ces nouveaux défis, sommes-nous encore capables de nous engager nous aussi dans des projets, certes risqués, mais véritablement porteurs de ruptures majeures en matière de connaissance et d’innovation ?
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
La miniaturisation des composants électroniques ne cesse de progresser, surtout pour les PC portables, les smartphones, les drones ainsi que les robots dont l’épaisseur ou encore la taille se réduit indéniablement. Des chercheurs de l’Université de Stanford (États-Unis) et du Laboratoire d’électronique et de technologie de l’information de Grenoble (France) ont repoussé les limites de cette tendance. Ainsi, un ordinateur complet miniaturisé a été dévoilé lors de l’International Solid-State Circuits Conference qui s’est déroulée à San Francisco.
Concrètement, la machine est incarnée par un processeur surmonté d’une mémoire. Les chercheurs ont indiqué vouloir créer un “tout” plutôt qu’une somme de parties, comme dans le cas d’un ordinateur assemblé.
Les chercheurs ont déclaré avoir mis au point une mémoire de type RRAM (ou ReRAM) pour Resistive random-access memory, actuellement étudiée par plusieurs entreprises du secteur informatique. Or, ce genre de mémoire s’avère être non-volatile, c’est-à-dire que les données sont encore présentes même lorsque la puce se retrouve en veille prolongée (économie d’énergie). Avec une densité de stockage plus importante par cellule – cinq états différents peuvent être stockés – il est donc possible de réduire la taille du composant.
Il faut également savoir que la mémoire RRAM permet une réduction de la consommation électrique nécessaire à son fonctionnement. Par ailleurs, le fait que la taille des circuits ait été réduite entre le processeur et sa mémoire a eu de nombreux effets bénéfiques. En effet, les pertes électriques ont été bannies et le temps de réponse réduit au maximum. Cela a permis d’accroître à la fois la puissance et l’autonomie de l’ordinateur.
En définitive, ce prototype d’ordinateur mesure seulement six millimètres ! Il s’agit pourtant d’une machine encore trop “imposante” pour être démocratisée aussi facilement. Mais cette association miniature mémoire/processeur pourrait à l’avenir être intégrée dans certains objets. Les fabricants de smartphones s’intéressent déjà à cette technologie afin de permettre une évolution des puces équipant leurs produits.
Article rédigé par Georges Simmonds pour RT Flash
Science Post
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Une centaine de robots de téléprésence financés par la région Auvergne – Rhône-Alpes offrent la possibilité, depuis septembre, aux lycéens malades ou en situation de handicap de se "rendre au lycée". "On parle à dessein de robot de téléprésence, car il n’y a pas d’intelligence artificielle à l’intérieur", signale Isabelle Ranchy, conseillère technique “handicap” de la rectrice de Grenoble. "L’élève est entièrement maître de ce support".
Muni d’une caméra, le robot est piloté à distance par l’ordinateur de l’étudiant, installé chez lui ou dans une chambre d’hôpital. L’élève absent apparaît sur l’écran dont le robot est équipé. Grâce au micro, il participe au cours et échange avec ses camarades. Comme s’il était en classe, il se déplace par le biais de son double. "Ce projet permet de rendre l’école plus accessible et propose un accompagnement plus individualisé", commente Béatrice Berthoux, vice-présidente de la Région, chargée des lycées.
Testée pendant quatre ans dans trois lycées et deux structures médico-scolaires, la technologie a été validée par la communauté éducative, les scientifiques et la Région, qui en est à l’initiative. Outre capter les cours en direct, le robot maintient le lien entre le lycéen et son environnement scolaire. "L’arrivée du robot fait naître une nouvelle solidarité entre les élèves et leur camarade absent", note Isabelle Besson, chargée de mission « innovation et handicap ». Les médecins ont observé que l’élève hospitalisé se battait mieux contre la maladie.
Le robot de l’entreprise Awabot a décroché l’appel d’offres de la Région. Le prestataire forme les professeurs « référents techniques » de chaque lycée à l’utilisation du robot et à sa connectique. L’étudiant empêché sera pour sa part initié par le référent. La Région fournit à l’élève un kit complet (ordinateur compatible avec le robot, souris, manette pour la commande à distance, casque et clé 4G assurant une connexion internet sans faille). En cas de problème technique, une hotline est accessible et la maintenance assurée.
La Région consacre un budget de 1,2 million d’euros pour les 100 robots, la maintenance, les formations et les kits de télécommande. En contrepartie de cet investissement, la collectivité demande aux lycées de tout mettre en œuvre pour utiliser le robot à 50 % du temps d’utilisation maximale, soit quatre-vingt-cinq jours d’utilisation par an la première année, et 60 %, soit cent cinq jours, la deuxième.
"C’est la coordination entre les différents partenaires qu’il va falloir roder", estime Isabelle Besson, "surtout le moment de l’attribution des robots à tel ou tel lycéen, une décision relevant des services d’assistance pédagogique à domicile de l’Education nationale". Les robots ont été dispatchés sur tout le territoire de la Région, afin d’être mutualisés entre plusieurs établissements. "Un robot n’aura jamais beaucoup de distance à faire d’un lycée à un autre", précise Sandrine Chaix, conseillère spéciale « handicap » à la Région Auvergne – Rhône-Alpes.
Article rédigé par Georges Simmonds pour RT Flash
La Gazette
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs de la célèbre Université de Californie à Los Angeles (UCLA), ont mis au point un nouveau type d'aérogel de céramique. Ce matériau possède plusieurs propriétés remarquables : il est très léger et résiste à des conditions thermiques extrêmes, ainsi qu'à de brutales variations de température. Il pourrait ainsi être largement utilisé comme isolant, en particulier pour des véhicules spatiaux.
Les aérogels sont maintenant connus depuis des dizaines d'années. Il s'agit d'une sorte de gel dont le liquide est remplacé par du gaz. Composés à plus de 99 % d'air, ils sont par essence ultralégers mais présentent toutefois une grande robustesse. Ils peuvent être fabriqués à partir de plusieurs matériaux, notamment des céramiques, qui offrent alors des propriétés isolantes intéressantes, ainsi qu'une résistance au feu et à la corrosion.
C'est pourquoi les aérogels de céramique sont employés, depuis les années 1990, sur de nombreux équipements destinés à voyager dans l'Espace. Mais s'ils permettent effectivement d'isoler les engins spatiaux, les matériaux actuels présentent deux inconvénients majeurs : leur fragilité et leur tendance à se rompre, après avoir été exposés à de grandes variations de température. Ce qui est pour le moins handicapant dans l'Espace.
Afin de dépasser ces limites, les chercheurs ont conçu un nouvel aérogel de céramique, constitué de fines couches de nitrure de bore. Sa composition atomique unique et sa structure microscopique confèrent au nouveau matériau des propriétés remarquables : légèreté, élasticité et résistance à de très hautes et très basses températures, ainsi qu'à des changements brutaux et répétés.
Ces nouvelles caractéristiques viennent notamment de la faculté de l'aérogel de se contracter lorsqu'il est chauffé ou comprimé. À l'inverse, les matériaux habituels ont plutôt tendance à se dilater dans de pareilles conditions et à se contracter dans un environnement très froid. Et ces transformations, lorsqu'elles sont répétées, peuvent entraîner l'affaiblissement des propriétés de l'aérogel, voire sa dislocation.
Au contraire, le nouveau matériau mis au point par les scientifiques a prouvé une résistance inédite : après avoir été exposé pendant une semaine à 1 400 °C, il n'a perdu que 1 % de ses capacités de résistance. Cette mousse thermorésistante pourrait trouver de nombreuses applications dans l'industrie, les transports, le bâtiment ou encore le secteur spatial.
Article rédigé par Georges Simmonds pour RT Flash
Phys
|
|
|
|
|
|
|
|
L’agriculture représente 3 % de la consommation d’énergie finale française. Toutefois, les dépenses énergétiques d’une exploitation s’élèvent en moyenne à 13 000 euros HT chaque année. Une charge importante pour les agriculteurs et les éleveurs, liée avant tout au machinisme agricole ainsi qu’au chauffage des serres et des bâtiments d’élevage. Sur ces deux postes, les énergies fossiles demeurent largement majoritaires.
L’ADEME reconnaît les nombreux progrès réalisés ces dernières années, notamment « la récupération de chaleur sur les appareils de refroidissement ou le stockage d’eau chaude dans les serres ». L’agence identifie 43 solutions pour aller encore plus loin dans les champs, dans les serres et dans les bâtiments d’élevage. Citons pêle-mêle : pompes à chaleur, ventilateurs économes, goutte à goutte, réduction du travail du sol, remplacement des engrais azotés par des légumineuses, etc.
En déployant largement ces solutions techniques, l’ADEME envisage une baisse de la consommation énergétique en agriculture de 26 % d’ici 2050. En modifiant les pratiques agricoles et notamment en simplifiant le travail du sol, l’agence voit même une baisse de 43 %. En labourant moins, on consomme tout simplement moins de carburant.
Les équipements plus performants peuvent déjà être acquis dans le cadre du dispositif des certificats d’économie d’énergie (CEE). En plus de ces aides, l’ADEME insiste sur l’importance de multiplier les démarches collectives territoriales. « Les groupes existants ou à créer tels que les GIEE (Groupement d’Intérêt Economique et Environnemental), les CUMA (Coopérative d’Utilisation de Matériel Agricole), les CETA (Centre d’Etudes Techniques Agricoles), les groupements de producteurs et notamment les coopératives agricoles qui s’impliquent dans des démarches de progrès sur l’énergie, auront un rôle essentiel à jouer », prévient l’ADEME.
Article rédigé par Georges Simmonds pour RT Flash
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
Quand une pâle d’éolienne ou un avion subit un impact qui l’endommage, il faut changer ou réparer la pièce en rajoutant de la résine, un peu à la manière d’un patch de tissu. Si la première solution est coûteuse, la seconde présente le désavantage d’alourdir la pièce, au risque de modifier ses propriétés. Aujourd’hui, des chercheurs de l’EPFL ont mis au point un matériau particulier qui permet une autre solution : la réparation simple et rapide des fissures dans la structure composite, grâce à une technologie brevetée.
"Notre technologie est composée d’un agent réparateur intégré directement dans la fabrication du matériau", explique Amaël Cohades, chercheur au Laboratoire de mise en œuvre de composites à haute performance de l’EPFL (LPAC). Elle permet une réparation sur place en très peu de temps des fissures dans la résine d’une pièce par simple chauffage du matériau à 150 degrés.
L’agent réparateur s’active et la pièce endommagée s’auto répare rapidement, tout en conservant ses propriétés de base. Ce procédé, unique sur le marché, peut s’appliquer à toutes sortes de structures et permet de prolonger d’au moins trois fois la durée de vie d’une pièce. De plus, les propriétés de base et la tolérance au dommage initial sont équivalentes à celle d'un composite traditionnel ; le procédé est compatible avec les processus industriels actuels et ne nécessite pas de bouleverser le mode de fabrication.
Cette technologie serait particulièrement intéressante pour les éoliennes et les cuves de stockage. "Rien que pour les éoliennes, le coût de maintenance mondial est estimé à 13 milliards de francs pour 2020", souligne Amaël Cohades. Le chercheur estime qu’il y aurait également "de nombreuses applications pour toutes les pièces que l’on ne prend aujourd’hui pas la peine de réparer, comme un vélo ou un pare-chocs de voiture". A noter que la réparation n’est plus possible si l’impact est tel que les fibres sont cassées : toutefois, les dégâts affectant toujours la résine en premier lieu, une autoréparation avec application de chaleur serait intéressante dans la majorité des cas.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Pour contrôler l'activité humaine dans un bâtiment, on peut installer une caméra dans chaque coin ou activer un radar. Ce dernier est une solution respectant la vie privée dans la mesure où les gens ne sont pas reconnaissables sur les images, ce qui n'est pas anodin dans le cas par exemple d'hôpitaux, d'hôtels ou de bureaux.
Le radar offre encore toute une série d'avantages. La technologie permet en principe de détecter des personnes à travers les murs, ce qui fait qu'il est directement possible de couvrir plusieurs espaces. De plus, le radar convient aussi mieux pour enregistrer le mouvement, la vitesse et la distance, même lorsqu'il fait sombre ou dans des situations d'urgence (par exemple dans le cas de dégagement de fumées). Le radar peut en outre détecter des micromouvements, comme les battements de coeur ou les déplacements de la cage thoracique pendant la respiration.
Pourquoi ces solutions de radar ne se sont-elles dès lors pas encore imposées ? Parce que la technologie s'avère trop coûteuse et qu'elle consomme trop d'énergie. Une nouvelle puce-radar, développée par des chercheurs Imec du Holst Centre d'Eindhoven, devrait à présent changer la situation. "Cette puce est basée sur la technologie 'chip' standard, ce qui fait qu'elle peut mieux être intégrée à d'autres composants en la matière et être produite à moindre coût. Elle consomme en outre très peu d'énergie.
Le radar fonctionne sur une fréquence relativement basse (8 GHz), ce qui fait qu'il combine une faible consommation d'énergie à une longue portée. C'est ainsi que des micromouvements jusqu'à cinq mètres peuvent être détectés, voire de plus importants mouvements sur une distance de vingt mètres", annonce l'Imec.
"Avec ce nouveau radar, nous disposons d'une formidable solution pour créer des applications innovantes à l'attention des bâtiments intelligents. Pensons par exemple au comptage de personnes, à la détection de présences à des fins de réglage du conditionnement d'air ou du chauffage, à la possibilité d'une réaction plus rapide des services d'aide en cas d'urgence, comme la localisation de victimes dans un bâtiment en cas de départ d'incendie, ou l'appel automatique du numéro d'alarme en cas de chute d'une personne âgée, ou encore le respect du périmètre d'une installation industrielle", explique Barend van Liempd, responsable du projet chez Imec Nederland.
"Nous recherchons à présent des partenaires, comme des développeurs de capteurs innovants en internet des objets, domotique, automobile,... , mais aussi des fabricants de puces ou des concepteurs d'application, qui veulent pénétrer précocement sur ce marché et optimaliser avec nous cette nouvelle technologie dans le cadre d'un projet de recherche commun."
Précédemment déjà, l'Imec avait, dans son Home Lab, situé dans le parc technologique de Zwijnaarde, procédé à la démonstration d'applications potentielles basées sur la technologie du radar. Des entreprises y viennent par exemple tester des systèmes de détection de chutes. Il y a aussi des expérimentations en matière d'enregistrement du modèle de sommeil d'une personne en mesurant sa respiration au moyen d'un radar (ce qui évite de devoir installer toutes sortes de détecteurs sur son corps, avant de s'endormir).
Dans une autre pièce, des ondes du radar enregistrent le modèle de mouvement de toute personne qui y entre. Sur base du rythme de marche de quelqu'un ou de la manière dont il balance les bras, un modèle est élaboré. Avec ces données, un réseau neural est formé, qui apprend ainsi toujours mieux à connaître le modèle de mouvement des habitants d'un bâtiment. Si le système enregistre ensuite un modèle qui ne correspond pas à celui d'un habitant, c'est qu'il s'agit peut-être d'un intrus. On pourrait ainsi à l'avenir protéger les habitations, sans qu'une caméra ne doive filmer tous les faits et gestes.
Article rédigé par Georges Simmonds pour RT Flash
Data News
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon une récente étude, l'action visant à reboiser et à reconstituer les forêts au niveau mondial pourrait avoir pour effet d’aspirer suffisamment de dioxyde de carbone de l’atmosphère pour annuler une décennie d’émissions humaines.
On observe un réchauffement accéléré de la planète. Ce réchauffement est – à la base – naturel. En revanche, les émissions anthropiques accélèrent dangereusement cette hausse des températures, au point de dérégler un climat qui n’a pas été préparé pour des changements aussi brusques. Résultat, il existe au-dessus de nos têtes une sorte de gigantesque couverture chauffante, remplie de dioxyde de carbone. Et cette couverture nous étouffe.
Il existe plusieurs moyens de lutte contre le réchauffement climatique. Des énergies “vertes” peuvent être mises en place. Nous pouvons également réduire drastiquement notre consommation de viande (industrie beaucoup trop énergivore). Nous pourrions aussi prendre moins l’avion. Ces solutions, sur le papier, fonctionneraient. Elles sont en revanche compliquées à mettre en œuvre pour des millions de personnes. Et s’il existait un moyen, plus simple et à la portée de tous, pour potentiellement sauver la planète ?
C’est en tout cas ce que suggère une récente analyse. Selon Thomas Crowther, chercheur à l’ETH Zurich, les arbres sont « notre arme la plus puissante dans la lutte contre le changement climatique ». Et il s’appuie sur des chiffres. « Il y a 400 gigatonnes de CO2 captées actuellement dans les 3 000 milliards d’arbres de la planète. Si vous augmentiez cette capacité de 1 000 milliards d’arbres, cela équivaudrait à environ plusieurs centaines de gigatonnes supplémentaires capturées dans l’atmosphère. Vous auriez alors au moins 10 années d’émissions anthropiques complètement anéanties », a-t-il déclaré à The Independent.
Nous avions jusqu’à présent sérieusement sous-estimé le nombre d’arbres sur Terre. Grâce à de nouvelles données d’enquêtes au sol et satellitaires, Thomas Crowther et son équipe sont parvenus à une estimation beaucoup plus précise (et plus grande) que ce qui avait été jusqu’à présent calculé. Plus de 3 000 milliards d’arbres sur Terre, c’est environ sept fois plus qu’estimé par la NASA, par exemple. S’appuyant sur ces données, les chercheurs ont ensuite réussi à prédire le nombre d’arbres pouvant être plantés dans des parcelles vides à travers le monde.
Le fait de sous-évaluer le nombre d’arbres signifiait également que nous avions sous-estimé leur potentiel de lutte contre le changement climatique. Les arbres, en effet, tout comme le reste des plantes, absorbent le CO2 et ne gardent que le carbone. Ainsi, par leur simple présence, ces organismes aident à retirer l’excès de CO2 dans l’atmosphère.
Article rédigé par Georges Simmonds pour RT Flash
Independent
|
|
|
|
|
|
|
|
Une équipe internationale de l’Institut royal de technologie de Melbourne a mis au point un nouveau procédé qui permet de solidifier le CO2 de l'air à température ambiante. Cette solution permet de transformer le dioxyde de carbone de l’air en un charbon aux propriétés proches de celles d’un super-condensateur électrique. Le CO2 est actuellement stocké sous sa forme gazeuse car la solidification du dioxyde de carbone nécessite de très hautes températures, donc trop d’énergie. L’équipe de chercheurs a trouvé la solution pour réaliser cette solidification à température ambiante, par un procédé efficient.
Ces chercheurs ont dissous du CO2 dans un récipient contenant un électrolyte liquide et une petite quantité d’un alliage métallique liquide contenant des nanoparticules de cérium. Chargée électriquement, la solution transforme lentement le dioxyde de carbone, via une réaction de réduction, en flocons de carbone. "Un bénéfice parallèle de ce processus est que le carbone ainsi fabriqué peut retenir une charge électrique, devenant un super-condensateur. Il pourrait donc potentiellement être utilisé comme composant dans de futurs véhicules", explique Dorna Esrafilzadeh.
Réalisé avec un potentiel électrique faible, la réaction a l’avantage de pouvoir transformer le CO2 en continu. En appliquant un potentiel plus élevé à la réaction, les chercheurs ont noté l’émission de monoxyde de carbone. Ce gaz, s’il est toxique, peut être un précurseur de valeur pour des produits chimiques industriels ou des carburants synthétiques.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les chercheurs ont découvert une nouvelle voie de signalisation régulée par la kinase YAK1 et placée sous le contrôle de la kinase TOR. Cette voie, mise en évidence chez la plante modèle Arabidopsis thaliana, joue un rôle essentiel dans la régulation de la prolifération et la différenciation cellulaire. Elle pourrait aussi régir la destinée d’autres cellules eucaryotes, y compris chez l’Homme.
TOR est une protéine régulatrice de la croissance cellulaire qui contrôle, chez les plantes, la prolifération au sein des méristèmes. Par exemple, les cellules du méristème des racines prolifèrent d’abord, puis se différencient en s’allongeant pour augmenter la longueur de la racine. Chez les plantes sauvages, un inhibiteur sélectif du site actif de TOR, l'AZD-8055, réduit la longueur des racines primaires.
Les chercheurs ont découvert que des plantes mutantes dans le gène YAK1, dont la protéine YAK1 est inactive, résistent à la molécule AZD-8055 et continuent donc de croître. Ce gène YAK1 code une protéine kinase qui régule la croissance dans le méristème des racines en aval de TOR.
En l'absence d'activité de TOR, YAK1 induit un blocage des divisions cellulaires et favorise la différenciation des cellules du méristème. Inversement, TOR favorise la croissance du méristème en inhibant YAK1, ce qui permet de maintenir la prolifération. Ainsi, l’équilibre entre la prolifération et la différenciation cellulaires apparaît dépendant de l’antagonisme entre les deux kinases TOR et YAK1.
Ces résultats démontrent que la voie TOR-YAK1 joue un rôle essentiel dans la régulation de l'activité du méristème racinaire et ils fournissent de nouvelles pistes pour aider à comprendre les fonctions cruciales de TOR dans d'autres programmes de développement chez les plantes. Il faut noter que ces deux kinases TOR et YAK1 sont conservées chez la plupart des organismes eucaryotes, algues, plantes et… animaux.
Chez l’homme, l’homologue de YAK1 est la kinase appelée DYRK1A : elle est impliquée dans l’engagement des cellules souches humaines vers les lignées neurales et intervient dans le syndrome de Down (trisomie 21) ou encore les troubles du spectre autistique. Chez l’animal, l’équilibre TOR/DYRK1A pourrait être au cœur du processus de cancérisation.
Enfin, un inhibiteur sélectif du site actif de DYKR1A mime les mutations qui conduisent à la perte de fonction du gène YAK1 chez les plantes. Ainsi, les inhibiteurs développés pour bloquer sélectivement l’activité des kinases TOR et DYRK1A humaines sont également actifs chez les plantes. Ces résultats chez les plantes illustrent l’énorme potentiel de l’étude des grandes fonctions fondamentales du vivant, conservées du végétal à l’homme, avec des implications parfois inattendues.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Les thérapies à base de cellules souches sont de plus en plus courantes, en particulier quand il s’agit de traiter des cancers du sang tels que des lymphomes et des leucémies. Dans ces cas, les cellules souches sanguines cancéreuses du patient sont retirées et remplacées par des cellules saines. Toutefois, jusqu’à un quart des cas débouchent sur une issue fatale parce que la régénération des cellules sanguines est trop lente.
Une solution à ce problème consiste à stimuler la division des cellules qui produisent le sang, appelées cellules souches hématopoïétiques (CSH). Celles-ci donnent naissance aux différents types de cellules sanguines (globules rouges, globules blancs, etc.) de notre corps. Accélérer la division des CSH serait idéal, mais la question est de savoir comment y parvenir.
Pour répondre à la forte demande de reconstitution des cellules sanguines, les mitochondries des CSH accélèrent un processus appelé « phosphorylation oxydative », qui génère du carburant pour la cellule. Mais cela n’est pas sans conséquence : la stimulation de l’activité des mitochondries entraîne un vieillissement prématuré des CSH.
Partant de ce constat, une équipe de scientifiques dirigée par Olaia Naveiras (EPFL) et Nicola Vannini (Institut Ludwig pour la recherche sur le cancer, Lausanne) a découvert que le nicotinamide riboside, un dérivé de la vitamine B3, peut faire augmenter les CSH et stimuler leur activité. L’étude, à laquelle ont également participé l’Institut de bioingénierie de l’EPFL et le Centre hospitalier universitaire vaudois (CHUV), a des répercussions considérables pour les patients qui suivent une thérapie à base de cellules souches, en particulier puisque le nicotinamide riboside peut être pris sous forme de complément alimentaire avec les mêmes effets.
En étudiant les effets du nicotinamide riboside in vitro, les chercheurs ont trouvé que l’exposition de CSH d’êtres humains et de souris à cette molécule améliore leur fonctionnement et augmente la mitophagie, le processus par lequel les mitochondries soumises à un stress sont écartées pour laisser la place à de nouvelles mitochondries.
Ils ont découvert que l’ajout de nicotinamide riboside à l’alimentation de souris qui avaient subi un procédé de radiothérapie éliminant leurs cellules sanguines (simulation de radiothérapie) augmentait leur taux de survie de 80 % et accélérait la régénération sanguine. Chez les souris immunodéficientes, le nicotinamide riboside a entraîné une augmentation de la production de globules blancs (leucocytes).
Tout cela résulte en une amélioration considérable de la capacité des CSH à se diviser et à produire de nouvelles cellules sanguines. L’étude démontre pour la première fois que le nicotinamide riboside pris comme complément alimentaire peut avoir un impact bénéfique considérable pour prévenir les problèmes de régénération sanguine chez les patients atteints de cancer, même après une chimiothérapie ou une radiothérapie.
« Nous pensons que le nicotinamide riboside et d’autres modulateurs mitochondriaux, pris sous forme soit de complément alimentaire, soit de médicament pharmaceutique, peuvent jouer un rôle dans une approche supplétive visant à améliorer la santé des cellules souches et à accélérer la production de sang », explique Olaia Naveiras.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Des chercheurs associés au centre de santé publique de l’Université Queen’s de Belfast, en Irlande du Nord, ont tenté d'évaluer l'impact de certains types de régimes sur le déclin cognitif. Pour leurs travaux, les chercheurs ont choisi trois régimes, déjà réputés bons pour la santé cardiovasculaire : le régime méditerranéen, le régime DASH (Dietary Approaches to Stop Hypertension, ou Approche Diététique pour Stopper l'Hypertension en français) et le régime APDQS (A Priori Diet Quality Score).
Le régime méditerranéen met l’accent sur les grains entiers, les fruits, les légumes, les gras insaturés, les noix, les légumineuses et le poisson ; il limite la viande rouge, la volaille et les produits laitiers entiers. Le régime DASH donne la priorité aux grains entiers, aux fruits, aux légumes, aux produits laitiers allégés, aux légumineuses et aux noix ; il limite la viande, le poisson, la volaille, les gras saturés, le sel et les sucreries. Le régime APDQS prône les fruits, les légumes, les légumineuses, les produits laitiers allégés, le poisson et des quantités modérées d’alcool ; il limite les aliments frits, les collations salées, les sucreries, les produits laitiers riches en gras et les boissons sucrées.
Une fois ces bases posées, les scientifiques ont suivi pendant 30 ans 2 621 participants âgés de 17 à 34 ans au début de l’étude. Leur observation du régime (basse, modérée ou élevée) a été évaluée à 25, 32 et 45 ans. Leur acuité mentale mesurée grâce aux capacités de concentration, de mémoire et de réflexion a, quant à elle, été testée à deux reprises : autour de 50 et 55 ans.
Résultat : les personnes qui observaient de façon scrupuleuse un régime méditerranéen ou un régime APDQS obtenaient de meilleurs résultats cognitifs que les autres participants. Globalement, une observation stricte de ces deux régimes méditerranéen et APDQS était associée à un abaissement du risque de déclin cognitif de respectivement 46 et 52 %. Quant au régime DASH, aucune association avec une amélioration de la santé cognitive n’a pu être notée. Une observation que les chercheurs ne savent pas encore expliquer.
Plus précisément, pour le régime méditerranéen, 9 % des 868 personnes qui le suivaient de façon assidue (groupe "élevé") présentaient un déclin cognitif, contre 29 % des 798 personnes du groupe "bas". Un écart encore plus grand pour le régime APDQS, puisque 6 % des 938 personnes du groupe "élevé" présentaient un déclin cognitif contre 32 % des 805 du groupe "bas".
Mais à quoi correspondent concrètement les portions des groupes "bas" et "élevé" ? Rassurez-vous, il n'est pas question de consommer une entière corbeille de fruits par jour. Pour le régime méditerranéen, le groupe "bas" mangeait en moyenne 2,3 fruits et 2,8 légumes par jour, quand le groupe "élevé" consommait en moyenne 4,2 fruits et 4,4 légumes par jour.
Article rédigé par Georges Simmonds pour RT Flash
Neurology
|
|
|
|
|
|
|
|
Alors qu’aucun médicament ne permet aujourd’hui de guérir la maladie d’Alzheimer, les choses pourraient bien changer. Une équipe de la Keck School of Medicine a réussi à réduire les effets de la maladie d’Alzheimer chez des souris génétiquement modifiées pour en présenter les symptômes. Cette découverte, issue de composés naturels, pourrait bientôt être utilisée chez l’être humain.
Pour rappel, la maladie d’Alzheimer est un type de démence qui provoque des troubles de la mémoire et du comportement, dont les symptômes s’aggravent au fil du temps. Pour cette expérience, les chercheurs ont génétiquement programmé les souris pour reproduire les effets de cette pathologie.
Les souris ont ensuite reçu - parallèlement à des congénères sains - un traitement à base d’EGCG (Gallate d'épigallocatéchine) et d’acide férulique. Il s’agit de substances naturelles, présentes dans le thé vert, pour la première, et dans des légumes tels que la carotte et la tomate pour la seconde. Les souris ont ensuite été divisées en quatre groupes équitables. Chez le premier, les deux substances étaient administrées en combinaison ; chez le deuxième et le troisième, seule l’EGCG ou l’acide férulique leur était donné ; et le dernier groupe, enfin, ne recevait qu’un placebo.
Pendant les trois mois de l’expérience, mais aussi avant celle-ci, les souris ont eu à faire de nombreux tests pour connaître précisément leurs capacités neuropsychologiques. Ces tests peuvent être comparables (à peu de chose près) à ceux pratiqués chez l’être humain pour détecter les troubles de la mémoire et la démence.
Grâce à ceux-ci, les chercheurs ont pu faire des conclusions étonnantes : "Après trois mois, le traitement combiné a entièrement rétabli la mémoire de travail. Les souris atteintes de la maladie d’Alzheimer se sont révélées tout simplement aussi performantes que les souris en bonne santé utilisées comme témoins", explique ainsi Terrence Town, l’auteur principal des travaux et professeur de physiologie et de neurosciences à la Keck School of Medicine.
Si ces résultats sont encourageants, les chercheurs n’en expliquent pas encore totalement l’origine. Selon Terrence Town, si le traitement est si efficace, c’est grâce à son action contre une molécule impliquée dans le développement dans la maladie : la bêta-amyloïde. De plus, les composés administrés aux souris pourraient aussi avoir eu des effets sur le stress oxydatif et la neuro-inflammation – deux autres aspects liés à la pathologie.
Article rédigé par Georges Simmonds pour RT Flash
JBC
|
|
|
|
|
|
|
|
La communauté scientifique estime aujourd'hui que quatre cancers sur dix seraient évitables, en réduisant certains facteurs de risques bien identifiés et en modifiant son mode de vie. Parmi ces comportements, on peut citer la sédentarité, la consommation d'alcool et de tabac, l'exposition excessive au soleil, ou encore certaines infections virales et bactériennes.
Aux États-Unis, une équipe de chercheurs, menée par Zachary Klaassen, oncologue au Georgia Cancer Center à Augusta (Géorgie), a identifié un autre facteur de risque de décès. Ainsi, un patient atteint d’un cancer avec des antécédents de problèmes mentaux aurait moins de chances de survivre à la maladie.
Les chercheurs ont analysé les dossiers médicaux de plus de 675 000 personnes avec un cancer diagnostiqué entre 1997 et 2014. Chaque patient souffrait de l’un des dix cancers les plus courants : cancer de la prostate, du sein, du poumon, du rein, de la vessie, cancer colorectal, mélanome, cancer de l’endomètre (corps de l’utérus), de la thyroïde et de la bouche. Près de la moitié des participants a subi une évaluation psychiatrique. Durant les cinq années qui ont précédé le diagnostic de cancer, 7 900 personnes ont bénéficié d’une aide psychiatrique urgente, plus de 4 000 ont été admises à l’hôpital en raison d’un problème de santé mentale.
Les résultats de l’étude sont sans appel : les patients hospitalisés pour des problèmes mentaux présentaient un risque de décès par cancer accru de 73 %. Ceux qui ont bénéficié d’une aide psychiatrique d’urgence de la part d’un médecin étaient plus susceptibles de mourir de leur cancer de 36 %. Enfin, ceux qui ont consulté un médecin généraliste à propos d’un problème de santé mentale avaient 5 % de risques en plus de mourir.
"Les antécédents psychiatriques récents devraient être un signal d’alarme pour tous les médecins et infirmières traitant des patients atteints d’un cancer", déclare Zachary Klaassen. Il ajoute : "Il est essentiel que nous surveillions de près ces patients pour nous assurer qu’ils reçoivent les meilleurs soins possibles et qu’ils font l’objet d’un suivi, notamment lorsqu’ils ratent des rendez-vous".
Pour Klaassen, le stress psychologique qui accompagne souvent les problèmes de santé mentale peut affecter les mécanismes de défense naturels du corps. Ainsi, par exemple, la dépression liée au stress pourrait influer sur la capacité de notre corps à détecter le cancer et à lutter contre lui.
Article rédigé par Georges Simmonds pour RT Flash
BJC
|
|
|
|
|
|
|
|
À l’intérieur de la cellule, l’ADN est fermement enroulé autour de protéines pour former une structure complexe en trois dimensions appelée « chromatine ». Celle-ci protège non seulement notre matériel génétique pour éviter qu’il ne soit endommagé, mais organise aussi l’ensemble du génome en régulant l’expression des gènes en trois dimensions : elle les déroule pour les présenter à la machinerie cellulaire de l’expression génique avant de les enrouler de nouveau.
La structure tridimensionnelle de la chromatine comprend certaines zones appelées « domaines d’association topologique », ou TAD (topologically associating domains) . Ces TAD contiennent des séquences d’ADN (de plusieurs milliers à plusieurs millions de bases d’ADN) qui interagissent physiquement entre elles, laissant penser que les gènes situés dans ces domaines travaillent ensemble.
Découverts en 2012, les TAD n’ont pas encore révélé tout le secret de leur fonctionnement. On sait cependant que la perturbation des TAD entrave la régulation des gènes, un mécanisme que les cellules cancéreuses peuvent utiliser pour altérer l’expression génique. Une équipe de scientifiques menée par Elisa Oricchio (EPFL), a découvert que la mutation d’un gène spécifique entraîne une modification des interactions qui ont lieu au sein des TAD.
En temps normal, le gène en question, EZH2, intervient dans la répression de la transcription des gènes, la première étape de l’expression génétique. Il s’avère que les mutations du gène EZH2 jouent un rôle clé dans l’apparition de tumeurs et peuvent être utilisées comme marqueurs pour diagnostiquer plusieurs types de cancers.
Les scientifiques ont étudié ce qu’on appelle une mutation gain de fonction d’EZH2. Les mutations de ce type amplifient la fonction du gène et favorisent la croissance des cellules de la tumeur. Dans le cas présent, les chercheurs ont trouvé qu’EZH2 n’intervient pas au hasard au sein du génome, mais en particulier sur certains TAD.
Le gène EZH2 muté désactive des domaines entiers, neutralisant des gènes qui, normalement, suppriment les tumeurs. L’étude montre que la perte de plusieurs gènes accélère par synergie le développement des tumeurs. De plus, lorsque les chercheurs ont entravé l’action du gène EZH2 muté avec un inhibiteur, toutes les fonctions ont été restaurées.
Cette étude est la première à montrer que le gène EZH2 muté affecte non pas des gènes individuels, mais des domaines chromatiniens entiers, modifiant ainsi les interactions et l’expression de gènes anti-oncogènes contenus dans ces domaines.
« L’étude souligne l’importance de prendre en compte l’organisation tridimensionnelle du génome dans le noyau pour mieux comprendre comment les mutations qui ont lieu dans les cellules cancéreuses l’exploitent afin de favoriser la croissance de la tumeur », résume Elisa Oricchio. « Les inhibiteurs pharmacologiques qui bloquent l’activité oncogène d’EZH2 sont actuellement en phase d’essai clinique. Cette étude permet de mieux cerner leur potentiel thérapeutique. »
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Selon une nouvelle étude menée par des scientifiques de la clinique de Mayo (Etats-Unis), un gène permettrait de diagnostiquer de façon précoce le développement d’un cancer du pancréas chez les patients atteints de diabète de type 2. Ce gène, UCP-1 est une protéine qui provoque un brunissement de la graisse, bien connu dans le diagnostic d'autres cancers.
Les auteurs de l’étude ont pu conclure que "les changements métaboliques chez les patients avaient commencé 36 mois avant le diagnostic du cancer, parallèlement à une augmentation de la glycémie". De plus, les résultats ont permis également d’identifier trois phases de changements métaboliques avant le diagnostic de cancer du pancréas. Chaque phase étant caractérisée par l'apparition d'un nouveau changement.
Durant cinq années, les chercheurs ont analysé les données de patients atteints d’un cancer du pancréas avant son diagnostic. L’étude s’est portée sur l'évolution de la glycémie à jeun, du poids et des lipides sanguins. Ces examens ont alors permis d’étudier les changements métaboliques des patients qui permettent de comprendre les symptômes pré-diagnostic du cancer.
Au bout de 18 mois avant le diagnostic, les scientifiques ont pu s’apercevoir que les patients subissaient une perte de poids et une diminution des lipides sanguins, notamment des triglycérides, du cholestérol. D’après les auteurs de l’étude, ces symptômes seraient liés à "l’apparition de graisse sous-cutanée de couleur brune au lieu d’être de couleur blanche, un phénomène observé dans d’autres cancers". "La graisse blanche peut virer au brun en activant certains gènes, notamment UCP-1. Nous avons émis l’hypothèse que le cancer du pancréas provoque un brunissement de la graisse sous-cutanée et avons confirmé notre hypothèse dans des études animales, expérimentales et humaines", expliquent les chercheurs.
Le cancer du pancréas est une maladie qui touche autant d'hommes que de femmes ; la grande majorité des personnes diagnostiquées a plus de 50 ans. L’Institut national du cancer estime à environ 9 000 le nombre de nouveaux cas de cancer du pancréas en France, chaque année. Il existe trois facteurs de risque majeurs de développer un cancer du pancréas : la consommation de tabac, le surpoids et l’hérédité. On le sait, le tabac est responsable d’un grand nombre de cancers, que ce soit les cancers des poumons, des bronches ou encore de la vessie.
Les risques de développer un cancer du pancréas sont ainsi fortement augmentés (multipliés par trois) chez les fumeurs. De même, les personnes en surpoids (IMC excessif) voient augmenter leurs risques d’être victimes d’un cancer pancréatique.
Enfin, lorsqu’il y a des antécédents familiaux de cancer du pancréas, les risques d’en développer un soi-même sont plus grands. Malheureusement, on ne peut pas agir sur ce troisième point. Prévenir le cancer du pancréas revient à prévenir ces facteurs de risque. Il convient alors d'adopter une alimentation équilibrée, de pratiquer une activité physique régulière, de réduire sa consommation de viande rouge et d'alcool et d'arrêter de fumer.
Article rédigé par Georges Simmonds pour RT Flash
Gastroenterology
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|