|
|
Edito
Le train a un nouvel avenir
Le train et de chemin de fer constituent une aventure scientifique et technique extraordinaire, qui commence dès le début de la révolution industrielle et ne cessera d’en être l’un des moteurs essentiels. C’est en effet seulement 35 ans après que James Watt eut breveté sa première machine à vapeur, en 1769, que l’inventeur britannique Richard Trevithick fit la démonstration, le 21 février 1804, de la première locomotive à vapeur, qui transportait alors dix wagons à une allure encore modeste de 8 km/h. Il fallut cependant attendre 1812 que l’ingénieur britannique John Blenkinsop conçoive et réalise, entre Middleton Colliery et Leeds, la première locomotive et le premier système de transport sur rail suffisamment fiables pour permettre une utilisation commerciale.
L’intérêt économique mais aussi politique et militaire de ce « système technique » associant trains et voies ferrés fut perçu dès le début du XIXe siècle : en 1814, l'ingénieur en chef des mines Pierre Michel Moisson-Desroches adressa à Napoléon un mémoire intitulé : « Sur la possibilité d'abréger les distances en sillonnant l'Empire de sept grandes voies ferrées ». Ce mémoire imaginait déjà un réseau ferré en étoile, composé de sept branches, dont le centre était évidemment Paris. Ce mémoire visionnaire sera d’ailleurs repris dans son esprit, par la grande loi du 15 février 1838 qui décida la construction de nos grandes lignes de chemins de fer par l’État (à l’époque, la monarchie de Louis XVIII). Mais dès 1821, le gouvernement français reçoit une demande de concession pour la construction d’une ligne de chemin de fer de Saint-Étienne à Andrézieux.
C’est cependant en Grande-Bretagne que George Stephenson crée, le 27 septembre 1825, la première ligne ferroviaire ouverte au public et à usage commercial. Elle relie Stokton-on-Tees à Darlington. Baptisée « Locomotion », cette première locomotive destinée au transport de voyageurs était conduite par Stephenson lui-même et utilisait une machine à deux essieux-moteurs reliés entre eux par des bielles. Elle atteignait 30 km/h sur le plat et 40 km/h dans les descentes, une vitesse fabuleuse pour l’époque ! En 1827, Le français Marc Seguin fut à l’origine d’une autre innovation en inventant le procédé de la chaudière tubulaire qui eut pour effet de décupler la surface de chauffe en faisant passer dans des tubes l'air brûlant issu du foyer ce qui produit une énorme quantité de vapeur. Le 1er janvier 1828 fut inaugurée la ligne Saint-Étienne - Andrézieux, longue de 18 km et vouée au transport du charbon vers les voies d'eau les plus proches, Loire et Rhône.
Sur le plan technique, les innovations et améliorations se succèdent et se cumulent à vive allure : dès 1837, le chimiste écossais Robert Davidson fait rouler la première locomotive électrique entre Edimbourg et Glasgow en Écosse. La même année, la reine Marie-Amélie de Bourbon-Sicile, épouse de Louis-Philippe 1er, inaugure officiellement la première ligne de chemin de fer au départ de Paris construite spécifiquement pour le transport de voyageurs.
La locomotive à vapeur, incarnation emblématique du progrès technologique deviendra le véritable symbole de la révolution industrielle conquérante jusqu’à la première guerre mondiale. En 1938, une fabuleuse locomotive à vapeur, la Pacific 4468 Mallard, représentant la quintessence de cette technologie, établit en Grande-Bretagne le record du monde de vitesse ferroviaire en traction vapeur à 202,7 km/h ! Mais à la veille de la seconde guerre mondiale, si la traction vapeur reste très présente dans les transports ferroviaires, sa technologie appartient déjà au passé car la « fée électricité », arrivée à la fin du XIXe siècle, est en train de bouleverser le monde et s’imposer progressivement sur le rail.
En 1881 à Paris, Werner von Siemens fait la démonstration d'une alimentation par ligne de contact aérienne. La même année, le premier tramway électrique est mis en service à Lichterfelde. Les véhicules animés par des moteurs d’une puissance de 4 kW étaient alimentés en 180 V par les rails. En 1883, le tramway entre Mödling et Hinterbrühl près de Vienne en Autriche est le premier service régulier sous caténaire.
En 1891, le courant alternatif est utilisé pour la première fois par l’ingénieur Charles Brown, qui relie Lauffen am Neckar à Frankfurt am Main (280 km) en utilisant un moteur triphasé. En 1899, le Burgdorf-Thun-Bahn devient le premier chemin de fer électrifié d'Europe, en triphasé 750 V 40 Hz.
Dès le début du XXe siècle, la traction électrique affirme sa supériorité en matière de vitesse et en 1903, une automotrice Siemens alimentée en triphasé atteint les 213 km/h en Allemagne. A partir de 1950, la traction électrique s'impose en Europe sur toutes les grandes lignes et permet une réduction sensible des temps de parcours. En 1955, deux motrices électriques françaises de la SNCF battent le record de vitesse sur rail (331 km/h) sur une ligne droite et plate des Landes.
Quant au réseau mondial de voies ferrées, suivant le progrès technologique et nourrissant l’expansion industrielle économique, il se développe d’une manière quasi exponentielle au cours de la deuxième moitié du XIXe siècle, passant de moins de 40 000 km en 1850 à plus d’un million de kilomètres à la veille de la première guerre mondiale ! En France par exemple, le réseau ferré passe, au cours de la même période de 3 000 à 50 000 km… En 1914, il ne faut plus que 10h25 pour se rendre de Paris à Marseille en train, alors qu’il fallait encore plus de 70 heures pour effectuer le même voyage en diligence, en 1853, quatre ans avant l'ouverture de la ligne de chemin fer Paris-Lyon-Marseille. Tandis que la durée moyenne des trajets entre les grandes villes françaises n’avait été réduite de moitié - au mieux - entre l’époque des voies romaines et le début du XIXe siècle, cette durée fut divisée par 10 en moins d’un demi-siècle, de 1850 à 1900, ce qui provoqua l’émergence d’une nouvelle géographie économique et politique qui ne fut sans doute pas étrangère à l’effondrement concomitant des trois empires européens, l’empire allemand, l’empire austro-hongrois et l’empire russe.
Mais en dépit de ces progrès considérables, le trajet Paris Marseille demandait encore en 1900 12 heures 18, dans le meilleur des cas et il fallut attendre l’électrification complète de la ligne Lyon-Marseille en juin 1962, pour que le fameux « Mistral » réduise significativement ce temps de trajet en accomplissant ce voyage en seulement 7 heures 10. Sous l’impulsion du Général De Gaulle, qui voulait que la France se hisse à la pointe de la technologie mondiale dans les domaines stratégiques comme celui du transport ferroviaire et aérien, la SNCF créa dès 1966 un service interne de recherche spécialement dédié à la mise au point de trains à très grande vitesse. Grâce à cette impulsion décisive, des projets très novateurs pour l’époque, comme le turbo train et bien sûr l’aérotrain furent expérimentés et parfois développés à grande échelle au cours de la deuxième moitié des années 60.
C’est finalement en 1974 que Georges Pompidou décida, à l’issue d’un conseil interministériel, le lancement du projet de train à grande vitesse, dont les essais avaient commencé dès 1972 et qui devait initialement utiliser la turbine à gaz comme mode de propulsion. Grâce à ce volontarisme politique très affirmé, notre Pays put inaugurer, fin 1983, dans son intégralité, sa première ligne à grande vitesse qui mettait Lyon à seulement deux heures de Paris ! La France devenait alors le second pays au monde à disposer de lignes commerciales à très grande vitesse, après le Japon qui s’était doté de son propre TGV, le Shinkansen, en 1964. En avril 2007, le TGV entra dans la légende en atteignant la vitesse record sur rail de 574,8 km/h -la moitié la vitesse du son- lors de l'opération V 150.
Un record de vitesse moyenne sur une longue distance fut également battu par la SNCF lors de l'opération sardine, le 26 mai 2001, durant laquelle un TGV réussit à parcourir les 1 067 km séparant Calais de Marseille en seulement 3h29, à la vitesse moyenne de 306,37 km/h. Au cours des deux dernières décennies du XXe siècle, le TGV bénéficia de plusieurs avancées technologiques (passage du moteur à courant continu au moteur synchrone, puis asynchrone et enfin synchrone à aimants permanents) qui lui permirent d’améliorer sans cesse son rapport masse/puissance disponible qui atteint 1,17 kW/kg pour la dernière génération. Ses performances sans cesse améliorées ont permis au TGV d’augmenter sa vitesse maximale qui atteint à présent 320 km/heure en utilisation commerciale. Il semble cependant difficile, maintenant, de pouvoir obtenir de nouveaux gains significatifs de vitesse en matière de transport sur rail, sans ruptures technologiques majeures.
C’est là qu’intervient le train, à sustentation magnétique, un mode de propulsion révolutionnaire dont l’innovation principale tient au fait que les wagons ne sont plus en contact direct avec les rails mais « flottent » sur un puissant champ magnétique généré par la voie elle-même. Sans entrer dans les détails techniques, il existe deux grands types de technologie pour ce mode de propulsion : la sustentation électrodynamique (EPS) et la sustentation électromagnétique (EMS). Le Japon, pays le plus avancé dans ce domaine, a choisi l’EPS pour son Maglev qui vient de battre le record de vitesse sur rail en dépassant le 21 avril dernier les 600 km/h. L’autre technologie, l’EMS, est celle choisie par les Allemands, avec leur « Transrapid » à sustentation magnétique qui fut le premier train au monde de ce genre à transporter des passagers en 1979 à l’occasion de l’exposition de Hambourg.
S’agissant du record de vitesse que viennent de réaliser les Japonais, il faut préciser que le Maglev nippon a atteint la vitesse phénoménale de 603 km/h pendant 10,8 secondes en empruntant une voie spéciale de 42,8 kilomètres à Yamanashi (centre du Japon). Une telle vitesse équivaut à plus de 10 km par minute ou encore 170 mètres par seconde. Ce record mondial a permis de confirmer les performances et les qualités de stabilité de ce train hors du commun qui devrait permettre, à l’horizon 2045, de rallier Tokyo à Osaka (507 km) en un peu plus d’une heure, au lieu de 3h40 aujourd’hui. Quant au coût global de ce projet, il représenterait, selon la compagnie Central Japan Railway, qui compte le financer entièrement sur ses fonds propres, 70 milliards d’euros. Cet investissement est certes considérable mais il n’est pas plus élevé, ramené au km, que celui nécessaire au TGV classique actuel (de l'ordre de vingt millions d'euros du km).
Les Allemands ayant abandonné pour des raisons financières tous leurs grands projets de liaison longue distance avec leur Transrapid magnétique, le projet de Maglev japonais reste à ce jour le seul projet sérieux du genre à un horizon prévisible. Mais verra-t-on un jour rouler, ou plutôt glisser un Maglev européen ? Peut-être, mais certainement pas avant une bonne trentaine d’années, et cela pour une raison qui tient à la fois à l’économie et à la géographie. En effet, pour que le gain de temps soit substantiel par rapport à la meilleure technologie TGV d’aujourd’hui et que son exploitation commerciale soit rentable, un Maglev européen n’est envisageable, compte tenu du coût de réalisation des infrastructures, que pour relier entre elles les capitales et les grandes mégapoles européennes. En outre, compte tenu des investissements publics considérables déjà effectués pour déployer un réseau à grande vitesse européen « classique », ce n’est donc pas demain que l’on pourra emprunter un Maglev pour se rendre de Londres à Madrid ou de Paris à Moscou… Mais l’imagination des scientifiques et les ingénieurs étant par nature sans limite, ce Maglev, avant même d’être commercialement disponible, a déjà pris un sérieux coup de vieux avec l’annonce récente de deux autres systèmes de propulsion ultrarapides, dont on peut d’ailleurs se demander si on doit encore les qualifier de « train ».
Le premier a été présenté il y a un an par des chercheurs de l’Université de Chengdu, en Chine, dirigés par le professeur Deng Zigang. Ce projet, pour le moins futuriste, est un « super-Maglev » qui imagine un train magnétique comme celui des Japonais, mais qui circulerait dans un tube où la pression de l’air serait 10 fois inférieure à la pression atmosphérique au niveau de la mer. Il serait ainsi possible d’atteindre la vitesse fabuleuse de 2 900 km/heure, c’est-à-dire presque cinq fois la vitesse-record qui vient d’être atteinte par le Maglev nippon… (Voir China Daily)
Le second projet, à peine moins futuriste que le premier, a été présenté récemment par Elon Musk, le charismatique patron de Tesla : il s’agit d’Hyperloop (Voir Scribd). Elon Musk estime que les trains à grande vitesse sont trop onéreux et qu'ils ne vont pas suffisamment vite. Il propose donc, étude technique à l'appui, cet étonnant système de transport futuriste, baptisé Hyperloop. Celui-ci se veut plus réaliste, moins complexe, plus fiable et surtout beaucoup moins coûteux que le Super-Maglev chinois. Conçu pour des distances n’excédant pas 1500 kilomètres, ce mode révolutionnaire de transport se compose d’un double tube surélevé dans lequel se déplacent des capsules, dont chacune peut emmener 28 passagers.
L'intérieur du tube est sous basse pression, ce qui limite la résistance à l’air et les capsules se déplacent sur un coussin d'air généré à travers de multiples ouvertures sur la base de celles-ci, ce qui permet également de réduire les frottements. La propulsion de ces capsules est assurée par un puissant champ magnétique généré par des moteurs à induction linéaire distribuée à intervalles réguliers le long de ces tubes. Hyperloop se donne pour but de transporter des passagers du centre de Los Angeles au centre de San Francisco (550 km) en 30 minutes, soit une vitesse moyenne de 1 102 km/h, supérieure à celle d’un avion de ligne, qui met un peu plus de 35 minutes pour accomplir aujourd’hui ce même trajet.
Elon Musk affirme, en invoquant de solides arguments techniques et économiques, que l'Hyperloop coûtera au maximum 7,5 milliards de dollars dans sa version complète, c’est-à-dire permettant de transporter des voyageurs et du fret. Il souligne que cet investissement serait 10 fois moins lourd que celui de l’actuel projet de train à grande vitesse entre San Francisco Los Angeles, estimé à au moins 70 milliards de dollars.
Le tube d’Hyperloop serait réalisé sur des pylônes au-dessus du sol et non sous terre, afin de réduire sensiblement les coûts de construction. Hyperloop pourrait ainsi suivre le tracé de la principale autoroute de Californie reliant San Francisco à Los Angeles. Ce système futuriste sera autoalimenté en énergie, grâce à des panneaux solaires et l’énergie requise pourrait être stockée sous la forme d'air comprimé qu'on ferait circuler au travers d’un ventilateur électrique pour générer de l'énergie utilisable, comme le permet déjà la technologie LightSail. Au final, ce système Hyperloop permettrait, selon ses concepteurs, de transporter 840 passagers par heure entre les deux grandes mégapoles californiennes. Pour s’assurer définitivement de la faisabilité de ce projet, une première version d’Hyperloop (dans laquelle les capsules ne se déplaceront qu’à 320 km/h) doit être réalisée sur 8 km de long, en Californie, en 2016.
On le voit, le train, inventé il y a pourtant plus de deux siècles, reste plus que jamais un extraordinaire et irremplaçable mode de transport, tant pour le fret que pour les passagers et cela pour au moins quatre raisons. En premier lieu, le train reste de loin le moyen le plus économique de déplacement rapide. Deuxièmement, le train est plus performant, en terme d'efficacité énergétique par passager transporté, que n'importe quel autre moyen de transport. Troisièmement, le train permet de relier entre eux le cœur des grandes métropoles, ce que jamais l'avion ne parviendra à faire tant qu’il ne se posera pas comme un hélicoptère. Enfin, l'impact global sur l'environnement (émissions de polluants, de CO2 mais également nuisances sonores) d'un train à très grande vitesse de type Maglev, capable de rivaliser avec l'avion jusqu'à des distances de 2000 km, est sensiblement plus faible que celui du transport aérien.
Alors que l'Europe est à la recherche de grands investissements stratégiques qui pourraient à la fois relancer sa croissance, booster sa capacité d'innovation et améliorer la qualité de vie de ses habitants, pourquoi ne pas imaginer dès à présent la réalisation d'un "Euro-Maglev" qui préparerai l'après TGV et relierait entre elles, à l'horizon 2040, toutes les mégapoles européennes en moins d'une demi-journée ?
Souhaitons que notre Pays, qui a toujours été à l’avant-garde de la technologie mondiale en matière de chemins de fer et vient encore de se voir décerner il y a quelques jours la troisième place du classement européen (derrière la Suisse et la Suède) pour l’efficacité et la qualité de son réseau ferroviaire (Classement du Boston Consulting Group), prenne l’initiative de lancer ce projet visionnaire et ose ainsi ouvrir les voies du futur !
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Le premier transistor en silicène a été développé par un groupe de chercheurs de l'Institut de Microélectronique et Microsystèmes du Conseil national de recherches (Imm-Cnr) d'Agrate Brianza, dirigé par Alessandro Molle, en collaboration avec une équipe de l'Université du Texas, à Austin, coordonnée par Deji Akinwande.
Le silicène est un matériau bidimensionnel basé sur des atomes de silicium qui n'existe pas dans la nature. L'intérêt pour ce matériau a augmenté de façon exponentielle car il présente la possibilité d'être intégré dans des dispositifs nanoélectroniques avec une miniaturisation extrême.
Dans le cadre du projet européen 2D-Nanolattices, l'équipe de recherche italo-américaine a réussi à extraire le silicène de son support et à le transférer sur une plate-forme compatible avec un dispositif. Ce procédé a été effectué en deux étapes : d'abord le silicène a été recouvert avec un oxyde protecteur. Ensuite une feuille de silicène emprisonnée entre l'alumine d'une part et une couche ultra-mince d'argent de l'autre a pu être extraite. Ce "sandwich" a été ensuite renversé sur une base d'oxyde de silicium, laissant l'argent seulement dans deux zones de contact sélectionnées qui ont agi comme électrodes. A la fin de ce processus, le silicène a fonctionné comme "canal" pour le transport de charge d'un transistor à effet de champ.
Article rédigé par Georges Simmonds pour RT Flash
Consiglio Nazionale delle Ricerche
|
|
|
|
|
|
|
|
BMW a développé, en partenariat avec Qualcomm, une paire de lunettes de réalité augmentée dédiée aux propriétaires de Mini..
Le dispositif, baptisé Mini Augmented Vision, assiste le conducteur tout au long de son trajet en affichant sur deux écrans HD une série d’informations de navigation, comme les limites de vitesse autorisées, les flèches de direction ou encore les points d'intérêt sans occulter son champ de vision. Reliées à un smartphone via une connexion Bluetooth et une application dédiée, les lunettes permettent également au propriétaire de la voiture de répondre à des appels et de prendre connaissance de ses nouveaux messages par un système de dictée.
Par ailleurs, la fonctionnalité baptisée "X-Ray" permet, lors du stationnement ou en cas d'angles morts, de "voir" à travers les portes de la voiture grâce aux flux des caméras disposées à l’extérieur du véhicule qui sont projetés dans les lunettes. Enfin, Mini Augmented Vision fonctionne également en dehors de la voiture et offre ainsi la possibilité au conducteur de programmer sa destination avant de monter à bord de sa Mini et de retrouver plus facilement sa place de stationnement.
Article rédigé par Georges Simmonds pour RT Flash
CNET
|
|
|
|
|
|
|
|
Plusieurs entreprises se lancent dans le développement d’imprimantes 3D spécialisées dans la production alimentaire. Miguel Valenzuela, passionné du « Maker movement », vient de lancer Pancakebot, une imprimante à pancake qui utilise un logiciel intégré et rend possible la modélisation d’une forme particulière au moment où la pâte est déversée.
Ce projet est tout sauf fantaisiste et il est actuellement sur la plate-forme de financement participatif Kickstarter, où il a largement dépassé son objectif de 50.000 dollars pour atteindre plus de 300.000 dollars, une semaine avant la fin de la campagne. L’engouement du public pour ce projet prouve l’intérêt grandissant des imprimantes de nourriture en 3D. D’ailleurs, les constructeurs communiquent en comparant leur produit au micro-ondes qui avait suscité des questionnements sur sa sécurité lors de sa sortie. En effet, à terme, les imprimantes 3D pourraient le remplacer dans les foyers, dans la mesure où elles permettent de préparer rapidement un plat.
Pour le moment, trois entreprises se taillent la part du lion dans le secteur des imprimantes 3D spécialisées dans l’alimentaire. La première est appelée Food 3D Printer et est conçue par le spécialiste taïwanais de l’impression 3D, XYZPrinting. L’imprimante a été présentée au Consumer Electronics Show de Las Vegas cette année et devrait être commercialisée dans les prochains mois.
Mais contrairement à son concurrent, Foodini, créé par l’entreprise espagnole Natural Machines, la première imprimante ne cuit pas encore les ingrédients, seule la forme est créée et il faudra ensuite faire cuire le tout. Foodini pour sa part prévoit d’intégrer la partie cuisson à son futur prototype, prévu pour la fin de l’année 2015. L’autre acteur est 3D Systems avec le CocoJet Printer, conçu en partenariat avec le chocolatier américain Hersheys. Cette imprimante est ainsi spécialisée dans l’impression de chocolat et est destinée aux chefs pâtissiers.
Le plus grand potentiel de ces appareils réside dans la personnalisation de la qualité des plats. À l’ère du Quantified Self, il est possible de quantifier sa forme physique mais également ses besoins caloriques. Avec ces informations, une imprimante pourra alors permettre de doser la quantité exacte de vitamines, calories, minéraux, etc. dans les plats préparés.
Article rédigé par Georges Simmonds pour RT Flash
CNET
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des scientifiques indiens de l'Université d'Hyderabad ont découvert que la molécule IP7, porteuse de hauts niveaux d'énergie et qui régule un certain nombre de processus cellulaires, joue également un rôle crucial dans la réparation de l'ADN, la coagulation sanguine et la synthèse protéique par les ribosomes. Il semblerait par conséquent envisageable que celle-ci serve au développement de molécules thérapeutiques pour la prévention d'accidents vasculaires cérébraux et la chimiothérapie.
L'équipe de chercheurs, menée par le Docteur Rashna Bhandari, est en effet parvenue à démontrer que des niveaux réduits d'IP7 chez des souris diminuaient les problèmes de coagulation sanguine. Un déficit en IP7 entraîne en effet une réduction du nombre de certaines molécules riches en phosphate, en partie responsables de la formation des caillots sanguins.
Ces travaux ont également montré que plus les quantités d'IP7 sont importantes, plus la synthèse protéique est élevée. Un transfert des phosphates de la molécule IP7 vers la protéine responsable de la genèse des ribosomes explique cette dépendance.
"Cette étude nous révèle une nouvelle fonction de l'IP7 dans la réparation de l'ADN des cellules de mammifères", précise le Docteur Rashna, qui ajoute "Réduire les niveaux d'IP7 pourrait permettre d'améliorer le taux de destruction des cellules cancéreuses et d'intervenir de manière complémentaire aux traitements de chimiothérapie".
Article rédigé par Georges Simmonds pour RT Flash
Biochemical Journal
|
|
|
|
|
|
|
|
Faecalibacterium prausnitzii est une bactérie commune dans l’intestin de l'Homme en bonne santé mais, dès qu’une maladie inflammatoire chronique de l’intestin (MICI) apparaît, elle a tendance à diminuer. Mais est-ce que la disparition de F. prausnitzii fait partie des causes de l’inflammation ou est-ce que la disparition de F. prausnitzii est une conséquence de la maladie ?
Pour trancher cette question, les chercheurs ont utilisé des souris qui hébergent seulement deux types de bactéries dans leur tractus digestif. Suite à un traitement provoquant l’inflammation, la présence de F. prausnitzii protège à elle seule du développement d’une inflammation intestinale. Cela démontre le potentiel anti-inflammatoire de F. prausnitzii.
Les chercheurs de l’Inra et leurs collègues de Berkeley, en collaboration avec AgroParisTech, l’Inserm, l’AP-HP et l’UPMC, ont montré que la présence de cette bactérie est associée à de nombreuses molécules anti-inflammatoires dans l’intestin et dans le sang des animaux. F. prausnitzii serait capable d’assurer une protection de notre tractus digestif par un arsenal varié d’activités métaboliques.
Dès qu’il y a une inflammation intestinale, la diminution de la présence de la bactérie F. prausnitzii aggrave donc la pathologie. De façon à entraver ce cercle vicieux conduisant à l’inflammation chronique du tractus digestif, les scientifiques envisagent de restaurer la présence de F. prausnitzii grâce à de nouveaux compléments alimentaires qui contiennent la bactérie ou favorisent son développement.
Article rédigé par Georges Simmonds pour RT Flash
Mbio
|
|
|
|
|
|
|
|
Dans les cancers du sein, les cellules malignes commencent à franchir la membrane basale. Cette membrane délimite la glande mammaire et constitue une barrière à leur dissémination. Une fois cette enceinte franchie, le cancer du sein jusqu’à présent in situ devient invasif. Une équipe de recherche de l'Institut Curie, dirigée par Catalina Lodillinsky, Philippe Chavrier, directeur de recherche CNRS et Anne Vincent Salomon, travaille depuis 2011 à élucider les mécanismes développés par les tumeurs pour quitter leur foyer d’origine.
les chercheurs ont pu analyser près de 900 prélèvements de tumeurs du sein : des tumeurs in situ, mini-invasive et invasives. Ces recherches ont confirmé l'importance de la protéase MT1-MMP lors de la transition des cancers du sein in situ vers des formes invasives. "L’expression de MT1-MMP est particulièrement élevée dans les tumeurs de haut grade, celles ne présentant pas de récepteur aux hormones et les tumeurs à haut risque de développer des métastases", précise Catalina Lodillinsky.
L’extinction de MT1-MMP dans des modèles expérimentaux empêche même la transition vers les formes tumorales agressives. Pour la première fois, le rôle de MT1-MMP est clairement mis en évidence dès le début du processus d’invasion des tumeurs du sein. Il semble être un marqueur des tumeurs hormonorésistantes et à fort risque de métastaser.
L’invasion de la membrane basale semble provoquer par un signal venant du micro environnement qui active p63, ce qui ensuite déclenche la surexpression de MT1-MMP. C’est donc l’action cumulée de p63/ MT1-MMP qui semble contribuer aux premières phases de la dissémination dans les cancers du sein. Cette découverte ouvre de nouvelles pistes pour bloquer l’invasion tumorale.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut de génétique moléculaire de Montpellier, dirigés par Jamal Tazi, ont découvert un nouveau mécanisme d’action révolutionnaire de la molécule ABX464, qui pourrait combattre le virus du Sida et le contenir, même après l’arrêt du traitement.
À l’heure actuelle, les différents traitements visant à réduire la charge virale chez les patients infectés par le VIH font intervenir des molécules destinées à inhiber soit l’activité enzymatique de la transcriptase inverse virale, soit la protéase impliquée dans la maturation des protéines du virus, soit l’intégrase pour bloquer l’intégration du génome viral dans le génome des cellules infectées ou soit l’entrée des virus dans la cellule. Cette lourde trithérapie rétrovirale (ART) favorise l’émergence des résistances et doit en général se poursuivre toute la vie…
Cette équipe a démontré qu'ABX464 induit une baisse significative de la charge virale persistant pendant plusieurs semaines après l'arrêt du traitement. Un tel effet persistant sur la charge virale n'a jamais été observé chez l'homme avec les médicaments disponibles actuellement. De plus, aucun mutant du VIH pouvant résister à l’action de cette molécule n’a pu être identifié. ABX464 agit donc sur les cellules productrices et pas seulement en périphérie, comme les trithérapies actuelles.
Article rédigé par Georges Simmonds pour RT Flash
European Pharmaceutical Review
|
|
|
|
|
|
|
|
Des chercheurs anglais de l’Imperial College London et de la Queen Mary University (London) ont mis à jour une nouvelle voie de recherche qui permet de démultiplier le nombre de cellules tueuses du système immunitaire - Mes lymphocytes T cytotoxiques (TCD8) - pour surmonter l'affaiblissement du système immunitaire de l’organisme face à l’invasion des cellules cancéreuses.
Ce nouveau concept, considéré comme très prometteur par la communauté scientifique, a été baptisé lymphocyte expansion molecule (LEM) ou molécule d’expansion des lymphocytes T. Cette protéine est en effet capable d’augmenter le nombre de cellules tueuses. Testée sur la souris et présentée dans la revue Science, la technique apparaît déjà très prometteuse pour lutter non seulement contre les cancers mais aussi contre les infections virales.
C'est en cherchant de nouvelles voies pour surmonter l’épuisement du système immunitaire de l’organisme lorsque ses cellules tueuses sont submergées par les cellules cancéreuses ou les virus, que les chercheurs ont eu l’idée de combler la défaillance des lymphocytes T ou cellules T cytotoxiques qui détruisent les cellules anormales ou cancéreuses.
La recherche a consisté à infecter des souris avec le virus de la chorioméningite lymphocytaire (LCMV C13) afin de créer un modèle animal d’infection virale chronique chez l’homme. Ce virus va en effet entraîner l’épuisement immunitaire des cellules CD8 et bloquer le développement des cellules de mémoire. D’autres souris ont été injectées de cellules tumorales de manière à obtenir des souris modèles de cancer. En étudiant les souris à réponse immunitaire accrue, les chercheurs ont pu identifier le gène à l’origine de cette réponse amplifiée qui entraîne une production 10 fois plus importante de TCD8.
Ces recherches ont montré que ce gène et la protéine LEM sont impliqués dans cette immunité renforcée et que l'augmentation de la quantité de LEM entraîne également une production accrue de cellules T.
Ces travaux montrent donc que le LEM peut à la fois restaurer l’immunité face à l’infection virale chronique ou face à la tumeur et augmenter le développement des cellules de mémoire, permettant ainsi au système immunitaire de se préparer aux futures attaques. Ce mécanisme de la LEM ouvre une voie très prometteuse pour développer de nouveaux traitements contre une multitude de pathologies, dont le cancer.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Des scientifiques chinois ont annoncé avoir réussi à modifier le génome d’embryons humains. Mais cette découverte fait polémique et la communauté scientifique émet de sérieuses réserves sur cette intervention touchant le génome humain. Cette équipe de chercheurs, dirigée par le généticien de l'Université Sun Yat-sen à Guangzhou Junjiu Huangu, a modifié le génome sur des embryons humains non viables. Les scientifiques ont substitué un "mauvais" code génétique responsable d’une maladie sanguine mortelle pour le remplacer par un "bon".
Cette technique de substitution n’est cependant pas finalisée : seuls 28 des embryons traités (sur 86) ont eu un résultat positif, et de nombreuses mutations "hors cible", anormales, sont apparues sur ces embryons. Cette technique a enfin des conséquences imprévisibles sur les générations futures. "Si nous voulons un jour appliquer cette technique avec des embryons normaux, nous devons d'abord atteindre un taux de réussite proche de 100 % et il y a encore beaucoup de travail pour y parvenir", souligne Huang.
Les chercheurs chinois précisent que leurs expériences ont été menées sur des embryons humains non-viables obtenus auprès de centres de fertilité qui réalisent des fécondations in vitro. Le but de l'expérience a consisté à tenter de modifier un gène responsable d'une très rare maladie génétique du sang, la bêta-thalassémie ou anémie de Cooley. Une pathologie qui se traduit par un ensemble de symptômes tels qu'une modification des os du crâne conférant un faciès mongoloïde, qui apparaît dans l'enfance, un retard de croissance et une anémie microcytaire (globules rouges de petite taille) importante.
C'est par le biais d'une technique d'ingénierie du génome mise au point en 2012, la CRISPR/Cas9, et dont le principe a été découvert par une chercheuse française, Emmanuelle Charpentier, que les scientifiques ont pu intervenir sur ces embryons. Le principe de la CRISPR/Cas9 consiste à programmer une protéine capable de "couper" l'ADN (Cas9) pour permettre de modifier de façon spécifique et à un endroit très précis le génome. Grâce à cet outil, il est possible de cibler n'importe quel gène dans une cellule pour le modifier. Eteindre ou allumer l’expression d’un gène, le modifier, le réparer, l’enlever...
Cette découverte provoque un vif débat éthique dans la communauté scientifique. Les partisans du travail sur le génome humain avancent la possibilité d’en finir avec les maladies génétiques héréditaires, telles que la mucoviscidose. Mais de nombreux scientifiques redoutent les dérives eugénistes, qui pourraient se traduire par la recherche de l'enfant "parfait" à tout prix. A cause de ces problèmes éthiques, cette étude a été refusée par "Nature" et "Science" et c'est finalement le journal "Protein & Cell" qui l'a publiée.
Le scientifique chinois a annoncé pour sa part vouloir poursuivre ses recherches, mais en travaillant notamment sur des embryons d’animaux.
Comme le souligne le Washington Post, "Il s'agit d'une première étape importante mais il ne faut pas la surestimer. La science a un long chemin à parcourir avant que cette technique ne soit applicable sans risques sur des embryons destinés à l'implantation". Mais en dépit de ces réserves, la perspective de pouvoir concevoir des "enfants sur mesure" est à présent devenue inévitable…"
Article rédigé par Georges Simmonds pour RT Flash
Protein & Cell
The Washington Post
|
|
|
|
|
|
|
|
Une équipe de recherche de l’Institut de génétique de biologie moléculaire et cellulaire (IGBMC) de Strasbourg, associée à l’INSERM et au CNRS et dirigée par Bruno Klaholz, vient de mettre en évidence la structure tridimensionnelle et les interactions à l’échelle atomique du ribosome humain, une structure qui combine protéines et ARN et joue un rôle-clé dans l’expression des gènes et la biosynthèse de protéines.
Cette avancée majeure dans la connaissance fondamentale de la cellule a été permise grâce à l’utilisation d’une technologie de pointe baptisée cryo-microscopie électronique. Une technique qui a permis à l’équipe de chercheurs de préserver les fonctions biologiques des ribosomes et de travailler sur des échantillons figés. Ils ont ensuite effectué une reconstruction 3D des clichés obtenus grâce au microscope.
Le modèle obtenu montre que le ribosome est constitué de deux sous-unités L et S, d’environ 220 000 atomes. « Les sous-unités interagissent ensemble et tournent légèrement sur elles-mêmes au cours du processus de biosynthèse des protéines, entraînant un fort remodelage de la configuration 3D de la structure », notent les auteurs de l’étude.
En explorant l’agencement de la structure du ribosome, les chercheurs ont également identifié la place des différents acides aminés et nucléotides constituant les deux sous-unités et leurs interactions moléculaires dans les différents sites de liaisons. Leurs travaux révèlent qu’après « avoir livré les acides aminés qu’ils transportent, les ARNt continuent à interagir avec le ribosome au sein du site de sortie des ARNt », écrivent les chercheurs.
Cette meilleure connaissance de la structure et de la dynamique du ribosome va permettre d’étudier par exemple les effets secondaires de certains antibiotiques, destinés à s’attaquer aux ribosomes bactériens et qui parfois s’attaquent « par erreur » au ribosome humain. La possibilité de cibler les ribosomes humains des cellules cancéreuses ouvre également une nouvelle voie thérapeutique contre le cancer.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs de l’Ecole Polytechnique Fédérale de Lausanne (EPFL) travaillent sur un système de microélectrodes sans fil destiné aux épileptiques. Implanté à l’intérieur du cerveau, il permet de surveiller très précisément l’activité cérébrale du patient sans qu’il soit obligé de rester alité à l’hôpital.
Dans leur grande majorité, les patients souffrant d'épilepsie peuvent être traités par des médicaments anticonvulsifs. Mais certains patients ne répondent pas au traitement standard. De plus en plus d'entre eux recourent à la chirurgie, afin de retrouver une vie normale. Le principe consiste à repérer à l'aide d'électrodes la zone du cerveau responsable de l'épilepsie, puis, dans les cas les plus graves, de la retirer.
Actuellement, la phase pré-chirurgicale est lourde et très invasive. Le patient subit une opération du crâne, afin d'implanter des électrodes à la surface de son cortex. Une fois la plaie refermée, il lui est ensuite nécessaire de rester alité aux soins intensifs durant plusieurs semaines, les fils électriques ressortant de sa boîte crânienne. Les électrodes sont reliées en permanence à une station d'enregistrement, ce qui permettra de repérer les prémisses de l'épilepsie, lors d'une crise.
A l'EPFL, les chercheurs ont imaginé et réalisé un réseau de microélectrodes sans fil, qui permet de surveiller très précisément l'activité cérébrale du patient, sans qu'il soit obligé de rester alité à l'hôpital. Si elle n'évite pas l'ouverture du crâne, cette nouvelle méthode sans fil comprend de nombreux avantages puisqu'elle supprime les fils et évite aux patients ce séjour forcé aux soins intensifs ; elle permet également de réduire le risque d'infection.
Avec le nouveau système, constitué d'un réseau d'électrodes, d'une puce et d'une antenne, les signaux électriques émis par le cerveau sont captés et traités directement sous la peau. Le dispositif interne est alimenté en énergie depuis l'extérieur par induction électromagnétique, et peut ainsi traiter un grand nombre de données, puis transférer ses résultats à une unité externe.
En matière de recherche fondamentale, ce nouvel outil pourrait permette d'observer l'épileptogénèse au niveau d'un petit nombre de cellules, et plus seulement au niveau de dizaines de milliers de cellules.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
On sait que la production de mélanine, sous l'effet du rayonnement solaire, permet de protéger la peau d’une exposition aux rayonnements ultraviolets (UV) du Soleil.
Des chercheurs du CEA ont utilisé la spectrométrie de masse, développée à l’Institut nanosciences et cryogénie (Inac, CEA / Université Joseph Fourier à Grenoble), pour mesurer la quantité de dommages générés dans l’ADN, à différents temps après exposition directe aux UV. Ils ont ainsi pu observer que la mélanine pouvait avoir un effet paradoxal et altérer l'ADN de nos gènes, cet effet antagoniste dans la chaîne de fabrication de la mélanine durant plusieurs heures après l’exposition. Les altérations générées peuvent engendrer des cancers de la peau (mélanomes).
Ces travaux ont montré que les espèces oxydantes et les radicaux libres générés par une partie des rayonnements solaires – les UVA – lors de l’exposition au Soleil réagissent avec les molécules-précurseurs de la mélanine, situées dans les cellules synthétisant ce photoprotecteur (les mélanocytes).
Ces molécules-précurseurs oxydées se décomposent ensuite en libérant de l’énergie qui peut être transmise à l’ADN, y générant alors des altérations (création de liaisons chimiques supplémentaires dans l’ADN). Ce type d’altérations, les mêmes que celles produites par l’effet direct des UV solaires, est à l’origine des mutations engendrant l’apparition de mélanomes.
De plus, en mesurant la quantité d’altérations générées dans l’ADN des mélanocytes au cours du temps, les chercheurs se sont aperçus que ces phénomènes surviennent non seulement lors de l’exposition directe, mais perdurent plusieurs heures après, même une fois les cellules « abritées » du rayonnement UVA.
Cette compréhension plus fine des mécanismes de cancérogénèse cutanée devrait permettre de modifier le discours de prévention en matière de photoprotection, par exemple contre les UVA, souvent considérés comme moins dommageables que les UVB.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Selon une étude américaine présentée à l'occasion de la dernière conférence annuelle de l'American College of Cardiology (ACC) à San Diego, le scanner et l'épreuve d'effort avec un électrocardiogramme ont la même efficacité pour diagnostiquer une maladie cardio-vasculaire.
Cette étude a porté sur 10.000 patients âgés de 60 ans en moyenne. Les patients n'avaient jamais reçu de diagnostic de maladie coronarienne, mais avaient de nouveaux symptômes pouvant indiquer une pathologie cardiovasculaire, tels que l'essoufflement ou des douleurs dans la poitrine.
La plupart des participants avaient au moins un facteur de risque comme de l'hypertension, du diabète ou le tabagisme. La moitié a été choisie au hasard pour passer un scanner, qui fournit des images en trois dimensions des artères coronaires, tandis que l'autre moitié a subi une épreuve d'effort avec un électrocardiogramme.
L'étude n'a ainsi montré aucune différence significative en termes de taux d'intervention chirurgicale majeure, de complications, d'infarctus et de mortalité dans chacun des deux groupes.
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Intel et Ford se sont associés dans le projet de recherche Mobii pour imaginer les nouveaux types d'interactions entre les conducteurs et leurs véhicules connectés. Intel met à disposition du constructeur automobile américain son expertise en matière de reconnaissance faciale et vocale, de capture des mouvements, de gestion des données, pour inventer de nouveaux dispositifs et usages innovants et intuitifs.
Cette alliance technologique s'est particulièrement concentrée sur des services générés par l'installation de mini-caméras dans les habitacles. Par exemple, les partenaires estiment que la reconnaissance faciale, grâce à une caméra pointée vers le conducteur, pourrait permettre de déclencher le démarrage du véhicule et remplacer la clé de contact.
Selon Ford et Intel, la reconnaissance du conducteur pourrait aussi permettre de lui proposer une expérience personnalisée : dès son entrée dans l'habitacle, ses préférences en matière de réglage de siège, de stations radio préférées, d'adresses préférées, seraient automatiquement chargées.
Article rédigé par Georges Simmonds pour RT Flash
MobileSyrup
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|