|
|
|
|
|
NUMERO 833 |
|
|
|
|
|
|
|
Edition du 05 Février 2016
|
|
|
|
|
Edito
La voiture du futur sera modulable, propre et partagée
Le parc automobile mondial a connu une croissance, en nombre, sans précédent au cours de ces 40 dernières années, puisqu’ayant plus que triplé au cours de cette période, il est passé de 350 millions de voitures en 1980 à 1,25 milliard en 2014. Et cette croissance impressionnante va se poursuivre : en 2040, il y aura au moins 2 milliards de voitures en circulation dans le monde. Entre 1980 et 2040, le nombre moyen de voitures par terrien sera donc passé de une pour 14 habitant à une pour 4,5 !
Mais faire circuler ces deux milliards de véhicules dans de bonnes conditions relève de la quadrature du cercle car il devient de plus en plus difficile, pour des raisons économiques et écologiques, de construire de nouvelles infrastructures routières. En outre, comment parvenir à réduire sensiblement les émissions globales de gaz à effet de serre liées au transport terrestre alors que le nombre de voitures en circulation dans le monde ne cesse d’augmenter ?
Pour relever ce défi immense, tous les leviers technologiques sont mobilisés, à commencer par ceux actionnables immédiatement, comme l’auto partage et le covoiturage intelligent qui permettent, grâce à une mise en relation numérique en temps réel de l’offre et de la demande de déplacements, de « rentabiliser » l’usage des voitures individuelles qui, rappelons-le, passent plus de 90 % de leur durée de vie en stationnement et roulent le plus souvent avec une seule personne à bord, ce qui constitue une véritable hérésie sur le plan énergétique, économique et écologique.
Mais pour aller encore plus loin et passer du concept de voiture individuelle à celui de flux de transport, la voiture de demain sera de plus en plus modulaire, et transformable selon les besoins de ses usagers, comme le montrent certaines innovations récentes.
C'est ainsi que le groupe Alsacien Lohr Industrie a conçu un système de transport bimodal, baptisé Cristal. Cet étonnant concept a été présenté à l’occasion de l’exposition Solutions COP21 au Grand Palais, qui s’est tenue pendant la conférence internationale sur le climat de décembre dernier. Comme le véhicule Bluecar, de Vincent Bolloré, ces véhicules sont en autopartage. Mais la grande nouveauté est qu’ils sont capables de se transformer en une seule navette assurant le transport de dizaines de personnes. Pour obtenir ce « train » routier, il suffit d’atteler 2 à 4 véhicules. Chacun de ces véhicules Cristal peut embarquer cinq personnes assises, à la vitesse maximale de 70 km/h. Le système complet et ses quatre véhicules permettent donc de transporter 72 passagers debout, avec une vitesse maximale de 40 km/h.
Cette navette cristal a été conçue de manière à ce que ses usagers puissent l’utiliser à certaines heures pour effectuer le "dernier kilomètre" de leur trajet ou l’emprunter comme une voiture particulière à d’autres moments de la journée. Pour parvenir à une telle flexibilité d’usage, les utilisateurs disposeront évidemment en temps réel de toutes les informations concernant l’emplacement et la disponibilité de ces véhicules. Ces derniers seront tous géolocalisés et pourront être réservés en ligne. Cristal sera expérimenté d’ici la fin de cette année par Strasbourg Eurométropole et devrait contribuer à l’objectif de réduction de 70 % des émissions de gaz à effet de serre que s’est fixé cette société. Il devrait ensuite être testé à Montélimar, où le réseau de transport est moins développé.
Plus surprenant encore, l’incroyable monocycle développé par Ford. Le constructeur automobile américain a en effet imaginé une roue détachable et facilement utilisable comme véhicule individuel. Lorsque vous avez garé votre véhicule, un astucieux système fait descendre une cale qui la soulève. Vous disposez alors d’un véhicule monocycle autonome avec sa propre suspension, sa motorisation électrique et un contrôle électronique pour l'équilibre. Il ne vous reste plus qu’à fixer le siège logé dans le coffre pour démarrer et goûter aux joies de la circulation urbaine en pouvant vous faufiler à peu près partout, comme avec un deux-roues. Ford, qui planche depuis plusieurs années sur ce projet, croit dur comme fer à ce concept en forme de « poupées russes » qui pourrait permettre à l’usager de laisser sa voiture en périphérie de la ville, puis de rejoindre le centre-ville à l’aide de cet engin pour le moins insolite mais parfaitement adapté aux déplacements dans un environnement urbain dense. Pour ceux qui doutent encore, Ford précise même qu’il est tout à fait envisageable d’intégrer plusieurs de ces monocycles dans une seule voiture…
Mais ces voitures du futur vont également être intrinsèquement connectées en permanence à Internet de manière à pouvoir offrir en toute circonstance au conducteur l’ensemble des informations dont il a besoin en matière de navigation, de sécurité routière mais également de communication personnelle. En Grande-Bretagne, une étude publiée il y a quelques jours par Juniper Research prévoit que le marché des systèmes d’infodivertissement sera multiplié par dix d’ici quatre ans pour atteindre une valeur de 600 millions $. L’étude prévoit une croissance rapide dominée par les géants informatiques Apple et Google et leurs systèmes d’infodivertissement respectifs CarPlay et Android Auto.
Il est désormais acquis, grâce aux efforts de normalisation et d’interopérabilité faits par les constructeurs et les géants de l’électronique et du numérique que les véhicules qui seront commercialisés à la fin de cette décennie deviendront de véritables plates-formes de communication. Ces voitures pourront non seulement s’autogérer et prévenir un grand nombre de défaillances techniques et mécaniques mais elles pourront également optimiser en permanence vos trajets et vos itinéraires, tout en vous proposant de manière intuitive l’accès à vos données audio, vidéo et informatiques personnelles.
En France, l'IDATE vient de publier une étude qui prévoit 420 millions de véhicules connectés circulant sur le globe dès 2020. Le taux de croissance annuel de ces autos serait de 34 %, ce qui est évidemment énorme et constitue un important marché qui va bien au-delà de l’industrie automobile et devrait surtout profiter aux géants du numérique et du multimédia. Pour l'Europe, en particulier, l'IDATE prévoit une croissance de 40 % par an jusqu'en 2020, et une explosion des autos connectées, notamment avec l'arrivée du système d'appel d'urgence eCall, validé par la Commission européenne. En cas d’accident, ce système, qui deviendra obligatoire des 2017 sur tous les véhicules neufs vendus en Europe, enverra automatiquement un SOS et la position du véhicule aux services de secours et de sécurité. Il devrait permettre de sauver plusieurs dizaines de milliers de vie par an à l'échelle de l'Europe.
Les constructeurs et équipementiers sont cependant bien décidés à profiter aussi de cette euphorie « connective ». Valeo vient par exemple de présenter au Consumer Electronics Show de Las Vegas, des lunettes intelligentes, qui permettent à un conducteur d’éviter l’éblouissement. Connectées aux phares de la voiture, ces lunettes laissent voir tout ce qui est éclairé par les phares, mais atténuent l’effet de phares venant d’en face.
En début de semaine, Ford a annoncé au CES de Las Vegas un partenariat important avec Apple et Google, deux géants du numérique. A partir de cette année, les systèmes embarqués CarPlay d'Apple et Android Auto de Google seront intégrés à Sync Applink, son système multimédia pour l'automobile. L'objectif est de mieux connecter la voiture et le smartphone. Grâce à cette alliance, les conducteurs équipés d'iPhones ou de téléphones fonctionnant sous Android pourront accéder à leur musique, passer des coups de fil, accéder à la navigation GPS des smartphones, juste en lançant une commande vocale via Siri ou Google Voice. Les 15 millions de voitures équipées de Sync devraient profiter immédiatement de cette innovation qui permettra également d'accéder à de nouvelles applications comme Concur, qui conserve en mémoire les trajets effectués, ou Cityseeker, qui propose une sélection de restaurants et de commerces au conducteur selon l'endroit où il se trouve.
En France, Le groupe PSA Peugeot Citroën a annoncé il y a quelques jours qu'il envisageait de coopérer avec Ford dans le domaine des véhicules connectés, deux jours après une annonce similaire de Toyota. Le communiqué commun publié précise que PSA et Ford ont décidé de "s'associer pour le développement de la prochaine génération de normes d'info-divertissement embarqué et d'accès aux applications tierces, pour offrir aux automobilistes une expérience plus sûre et plus pratique".
En début de semaine, le numéro un mondial Toyota, qui veut contrer Google et Apple sur ce marché très prometteur de la voiture connectée, a annoncé qu’il allait installer la technologie SDL de Livio dans ses voitures Toyota et Lexus. Grâce à SDL, le conducteur n’aura plus à utiliser de manière séparée le smartphone d'un côté et l'autoradio de l'autre. Il pourra en quelques secondes connecter son téléphone à sa voiture pour accéder, via la reconnaissance vocale, l'écran et les commandes de bord, à ses applications mobiles (e-mail, divertissement et informations, trafic, possibilités de stationnement...).
Mais la voiture de demain ne devra pas seulement être modulable, connectée et intelligente. Elle devra également être beaucoup plus respectueuse de l’environnement et réduire considérablement son « empreinte carbone » de manière à contribuer à la lutte mondiale contre le réchauffement climatique.
En attendant l’arrivée sur le marché des premières voitures à hydrogène à un prix abordable, les véhicules hybrides, toujours plus performants et les voitures électriques de nouvelle génération, devraient rencontrer un succès croissant auprès du grand public et pourraient représenter 10 % du parc européen en 2020 et un tiers de ce parc à l’horizon 2030.
Il est vrai que les progrès accomplis par les voitures électriques ont été remarquables depuis cinq ans. Après avoir rencontré un grand succès avec son modèle hybride « Volt », doté d’une autonomie de 670 km (85 km en mode électrique seul), Chevrolet vient par exemple de présenter sa nouvelle voiture 100 % électrique, la Bolt, à l'occasion du salon de Détroit. Ce véhicule sera disponible en 2017 et équipé d'un moteur électrique offrant une puissance de 150 kW, équivalente à 203 chevaux. Pouvant atteindre les 140 km/h en vitesse de pointe, la Bolt, qui sera vendue 30 000 $ pour le modèle de base (aide gouvernementale déduite) disposera d’une autonomie maximale de 322 kilomètres, contre 150 km au mieux pour les véhicules tout électriques actuellement disponibles sur le marché, hormis l’exception constituée par TESLA.
Chevrolet a également bien compris que le temps de charge reste, plus encore que l’autonomie, le grand point faible des véhicules électriques. La Bolt disposera donc d’un nouveau mode de recharge rapide permettant de gagner 145 kilomètres d'autonomie en 30 minutes.
Le problème est que l’architecture et le fonctionnement de nos réseaux électriques ne sont pas adaptés à la recharge simultanée de milliers de véhicules, surtout si ces recharges s’effectuent de plus en plus sur le mode ultrarapide. Mais une innovation remarquable en cours d’expérimentations, développée par des chercheurs de l’Ecole Polytechnique Fédérale de Lausanne, risque de changer la donne. Dirigés par Alfred Rufer, ces ingénieurs et techniciens ont en effet mis au point un système de stockage intermédiaire qui permet de découpler les stations du réseau, tout en garantissant un niveau de recharge élevé pour les véhicules. Autre avantage considérable, ce système utilise les réseaux basse et moyenne tension, ce qui réduit sensiblement les investissements.
Concrètement, l’élément de stockage intermédiaire est une batterie lithium-fer, d’une taille approximative d’un container maritime, qui s’alimente en continu à petite puissance sur le réseau. Quand une voiture souhaite faire un plein express, la batterie tampon restitue immédiatement l’électricité accumulée au véhicule et le réseau n’a pas à être sollicité.
Pour l’instant, le démonstrateur réalisé prend la forme d’une remorque contenant la batterie de stockage intermédiaire. Elle se recharge sur le réseau basse tension et fournit dans le quart d’heure les 20 à 30 kWh nécessaires à la recharge d’une batterie de véhicule électrique standard. Selon les calculs de ces chercheurs, une station qui assurerait la recharge rapide de 200 véhicules par jour aurait besoin d’une capacité de stockage intermédiaire de 2,2MWh, ce qui correspond à seulement quatre remorques.
Mais pour alimenter, demain, de manière propre ces millions de voitures électriques qui sillonneront nos routes, pourquoi ne pas transformer la chaussée en source d’énergie ? C’est sur cette idée un peu folle qu’ont travaillé d’arrache-pied pendant cinq ans des chercheurs de l’Institut national de l’énergie solaire et de l’entreprise de BTP Colas. Le résultat pour le moins étonnant s’appelle « Wattway ».
Concrètement, il s’agit de dalles solaires mesurant 30 cm sur 10 pour 7 millimètres d’épaisseur. Intégrant des cellules photovoltaïques, ces plaques, composées d’un mélange de verre et de résine, sont antidérapantes et très résistantes. Elles peuvent non seulement produire de l’énergie électrique mais également générer de la chaleur qui permet de maintenir la chaussée à température constante et empêcher ainsi la formation de verglas. D’après l’Ademe, un seul kilomètre de route équipée de ces dalles solaires permettrait d’assurer l’éclairage public d’une ville de 5000 habitants. Cette technologie est aujourd’hui suffisamment avancée pour être prise au sérieux par les pouvoirs publics et le gouvernement a d’ailleurs annoncé, à l’occasion de la récente COP 21, qu’il visait un objectif de 1000 km de route solaire en France d’ici cinq ans.
L’Institut de recherche spécialisé dans les transports, l’Ifsttar (Institut français des sciences et technologies des transports, de l’aménagement et des réseaux), se réjouit de l’innovation que représente « Wattway » mais veut aller encore plus loin et travaille sur le concept de route à énergie positive. L’idée est de concevoir une chaussée faite d’un sandwich composite permettant à la fois de produire et de stocker électricité et chaleur. Les chercheurs de cet institut, pour promouvoir leur concept, soulignent que si l’ensemble de notre réseau routier était recouvert de dalles solaires, cela suffirait largement, même dans l’hypothèse d’un rendement de conversion très faible, à produire la totalité de l’électricité que notre Pays consomme…
L’ensemble de ces récentes avancées scientifiques et techniques doit nous conduire à modifier radicalement notre vision des transports et des déplacements. Dorénavant, il nous faut concevoir dans un ensemble techno-économique cohérent une synergie des trois problématiques que constituent les transports, la production et la distribution d’énergie sans oublier la généralisation des outils et des services numériques que va apporter l’exploitation des données massives (mass media).
Demain, nos infrastructures et véhicules de transport sauront produire et distribuer de manière intelligente l'énergie qu’ils consomment et deviendront également des producteurs essentiels d’informations à haute valeur ajoutée économique. Notre Pays, qui a la chance d’exceller dans ces trois domaines industriels et technologiques, ne doit pas rater cette fulgurante révolution transversale qui a déjà commencé et va profondément transformer nos économies et nos sociétés.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Une équipe internationale de physiciens travaillant sur le détecteur Borexino, en Italie, vient de confirmer la durée de vie exceptionnelle de l'électron. On sait qu'en théorie, toute particule peut potentiellement se désintégrer en particules plus légères. Plus la probabilité de cette désintégration est élevée, plus la durée de vie de la particule est courte. Cependant, certaines contraintes peuvent empêcher toute possibilité de désintégration d’une particule, qui est alors stable.
Par exemple, dans le cadre du modèle standard de la physique des particules, la charge électrique doit être conservée lors d’une désintégration. Cela interdit à l’électron, chargé négativement, de se désintégrer en un photon et un neutrino, tous deux de charge électrique nulle. L’électron est donc en théorie stable. Mais pour tester celui-ci, les physiciens tentent de calculer la probabilité de processus de désintégration de l’électron, en principe interdit par le modèle standard.
Il n'est en effet pas exclu qu'il puisse exister certains processus de désintégration très rares qui ne conservent pas la charge électrique. Pour les observer, la collaboration Borexino (dont des chercheurs du laboratoire AstroParticule et Cosmologie de l'Université Paris Diderot-Paris 7) a analysé les données prises par le détecteur du même nom situé sous la montagne du Gran Sasso, en Italie.
Cette expérience a d’abord été conçue pour étudier les neutrinos de basse énergie provenant du Soleil, mais la pureté de son scintillateur liquide (un composé qui émet de la lumière lorsqu'une particule chargée le traverse) permet aux physiciens de rechercher d'autres processus rares comme la potentielle désintégration d'un électron en un photon et un neutrino. La signature d'un tel événement serait très nette car elle devrait être caractérisée par l'émission d'un photon dont l'énergie est précisément de 256 kiloélectronvolts.
Mais après plus de 400 jours de prises de données entre janvier 2012 et mai 2013, les physiciens n'ont observé aucune trace d'une désintégration d'un électron parmi les signaux captés dans les 75,5 tonnes de liquide scintillant du détecteur. Ils ont estimé que cette désintégration, si elle est possible, est si rare que la durée de vie de l'électron est d'au moins 6,6×1028 années. Ce résultat exclut des scénarios au-delà du modèle standard qui suggéraient que la charge électrique n'était pas conservée et qui impliquaient que les électrons avaient une durée de vie plus courte.
Article rédigé par Georges Simmonds pour RT Flash
Pour La Science
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
le risque de démence est présumé plus élevé chez les schizophrènes que dans la population générale, compte tenu du fait que les altérations neurodéveloppementales sous-jacentes dans la schizophrénie augmentent vraisemblablement la vulnérabilité cérébrale pour les affections neurodégénératives comme la maladie d’Alzheimer.
Mais les études réalisées pour confirmer cette hypothèse demeuraient jusqu’alors peu concluantes, notamment parce qu’elles ne comportaient pas une durée de suivi suffisante.
Pour trancher cette question, une vaste étude de cohorte a évalué l’influence de la schizophrénie sur le risque de démence, en se basant sur 6 registres de population du Danemark regroupant environ 2,85 millions de personnes âgées de 50 ans ou plus. Au total 20 683 sujets atteints de schizophrénie ont été identifiés. Le suivi a duré 18 ans (de 1995 à 2013).
Pendant ce suivi prolongé, plus de 130 000 personnes (dont 944 schizophrènes) ont développé une démence ; la schizophrénie se révèle associée à un doublement du risque de démence.
Ces statistiques sont d’ailleurs peu affectées par un ajustement des données pour tenir compte de comorbidités (comme le diabète, les maladies cardio-vasculaires ou l’addiction à une drogue) majorant le risque de démence.
Les résultats de cette étude confirment donc qu’indépendamment de toute comorbidité, les sujets atteints de schizophrénie (en particulier les moins de 65 ans) ont un risque accru de démence, avec ainsi un âge plus précoce pour le début de la maladie, mais que « cette augmentation du risque relatif ne saurait s’expliquer par les seuls facteurs de risque de démence connus. »
Article rédigé par Georges Simmonds pour RT Flash
NCBI
|
|
|
|
|
|
|
|
L’optogénétique est une méthode consistant à utiliser la lumière pour agir sur le fonctionnement neuronal. Plus concrètement, son principe est d’employer la lumière pour activer ou inhiber des neurones, afin de simuler l’activité de certaines cellules tout en laissant les autres intactes. Elle a permis d’importantes découvertes sur le fonctionnement du cerveau et sur des pathologies comme la dépression ou les TOC. Testée sur des cobayes animaux depuis une dizaine d’années, elle pourrait bientôt être employée pour traiter les douleurs chroniques, voire certaines maladies dégénératives chez l’être humain.
La start-up californienne Circuit therapeutics développe en effet une méthode rendant l’optogénétique utilisable sur des patients humains. Ainsi, si l’optogénétique nécessitait jusqu’à présent une opération très lourde, avec implantation d’une fibre optique dans le cerveau pour produire une source lumineuse, Circuit Therapeutics a mis au point un patch miniature susceptible d’accomplir cette mission, sans nécessiter une grosse opération. L’équipe a également mis au point une nouvelle méthode reposant sur l’injection d’un virus pour activer les bons neurones, une technique qui fonctionnerait parfaitement sur cobayes animaux.
Circuit Therapeutics vient ainsi de signer un contrat avec la Defense Advanced Research Projects Agency (DARPA), agence du Département de la défense américain, afin de mettre au point une thérapie traitant les douleurs chroniques chez les soldats. Si les résultats sont concluants, les recherches en matière d’optogénétique pourraient, à plus long terme, permettre de traiter des maux comme la dépression, les troubles du comportement ou encore la maladie de Parkinson.
Article rédigé par Georges Simmonds pour RT Flash
Circuit Therapeutics
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Waterloo au Canada ont mis au point un dispositif de surveillance à distance du flux sanguin, permettant une détection plus sûre et précoce de certains problèmes liés au coeur.
Ce système d’imagerie médicale, basé sur la technologie Coded Hemodynamic Imaging, permet de scanner le flux sanguin en différents endroits du corps au contraire des dispositifs communs des hôpitaux où l’évaluation se fait à partir du bout d’un doigt. Robert Amelard, doctorant ingénieur à l’Université de Waterloo, explique : "Les systèmes traditionnels se servent aujourd’hui d’une seule impulsion sanguine à un seul endroit du corps".
Ce dispositif agit comme de nombreux capteurs virtuels qui mesurent la manière dont s’écoule le sang dans diverses parties du corps. Les capteurs relaient les informations provenant de tous ces points de mesure à un ordinateur pour une surveillance continue." Une approche globale du corps qui permet le dépistage anticipé de problèmes cardiaques comme des caillots sanguins, qui ne sont aujourd’hui détectables que grâce à des analyses poussées.
Mais là où cette technologie semble révolutionnaire, c’est qu’elle n’a besoin d’aucun contact avec la peau pour fonctionner. Elle peut être utilisée pour scanner le flux sanguin de plusieurs patients à la fois et à distance : un potentiel qui pourrait faire ses preuves lors de catastrophes où les hôpitaux voient affluer de nombreuses victimes en même temps. Enfin, ce système sans contact paraît pratique pour les nouveau-nés en soins intensifs dont les doigts minuscules empêchent le bon fonctionnement de l’oxymètre de pouls, ainsi que pour les patients souffrant de brûlures douloureuses ou de maladies contagieuses.
Article rédigé par Georges Simmonds pour RT Flash
University of Waterloo
|
|
|
|
|
|
|
|
Une étude internationale a permis de quantifier l’influence de la génétique dans la survenue des cancers. Pour la première fois, les résultats montrent que lorsque deux jumeaux sont atteints de cancer, ils ne développent souvent pas le même type de cancer, ce qui, selon les auteurs, suggère que certaines familles ont un risque accru de cancer quel qu’en soit le type partagé par tous les membres.
« Des études antérieures avaient permis des estimations du risque et de l’héritabilité pour les cancers les plus courants - sein, prostate et côlon -, mais pour les cancers rares, les études étaient trop petites, ou le temps de suivi trop court, pour être en mesure d’identifier une héritabilité ou un risque familial », a précisé le Professeur Lorelei Mucci, un des auteurs de l’étude.
Les chercheurs ont examiné les données de plus de 200 000 jumeaux monozygotes (80 000) et dizygotes (120 000) au Danemark, en Finlande, en Norvège et en Suède. Les participants ont été suivis pendant une période médiane de 32 ans, entre 1943 et 2010. Un cancer a été diagnostiqué chez les deux jumeaux dans 3 316 cas. La tumeur était similaire chez 38 % des vrais jumeaux et 26 % des jumeaux fraternels. Lorsqu’un des deux jumeaux dizygotes est diagnostiqué d’un cancer, son frère jumeau a un risque accru de 37 % de développer également une tumeur cancéreuse.
Un surrisque a été observé pour 20 des 23 cancers étudiés. Le risque est particulièrement élevé pour le cancer des testicules : le risque est 12 fois plus élevé pour un faux jumeau et 28 fois plus important pour les monozygotes. L’étude indique également que le risque d’héritabilité du cancer est globalement de 33 % avec des différences selon les cancers : 58 % pour le mélanome, 57 % pour le cancer de la prostate, 39 % pour l’ovaire, 38 % pour le rein, 31 % pour le sein et 27 % pour l’utérus.
Article rédigé par Georges Simmonds pour RT Flash
LiveScience
|
|
|
|
|
|
|
|
Il n’existe actuellement aucun traitement efficace contre l’insuffisance rénale aiguë, qui est associée à de longues hospitalisations et un taux de mortalité élevé. Mais une équipe de chercheurs coordonnée par le Professeur Toru Miyazaki de l’Université de Tokyo a montré que la protéine AIM (pour Apoptosis Inhibitor of Macrophage) pourrait s’avérer efficace pour traiter cette maladie.
La protéine AIM, naturellement produite par le corps en particulier en cas d’insuffisance rénale aiguë, se lie à la protéine KIM-1 pour accélérer l’élimination des débris cellulaires par phagocytose, ce qui diminue l’inflammation et favorise la régénération tissulaire des reins.
Les chercheurs ont ainsi constaté l’efficacité d’un traitement à base d’AIM recombinante sur des souris où a été induite une insuffisance rénale par ischémie-reperfusion. Ce traitement fonctionne à la fois sur des souris sauvages (wild type) et sur des souris déficientes en AIM, mais pas sur des souris déficientes en KIM-1.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Une étude de l’Université de Pennsylvania School of Medicine, dirigée par le Docteur Amy S. Clark, ouvre un espoir dans le traitement de cancers dont certains touchant des patients jeunes, dont le lymphome, le sarcome et le tératome. Ces travaux montrent en effet qu’au-delà de son efficacité et de sa sécurité dans le traitement de certains types de cancer du sein, ce nouvel anti-cancéreux, le palbociclib, est également efficace contre d'autres tumeurs, en particulier en combinaison avec d’autres thérapies.
Le Palbociclib cible la division rapide des cellules tumorales en inhibant l'activité d’enzymes, CDK4 et CDK6, qui accélèrent la division cellulaire dans la plupart des cancers. Palbociclib est le premier inhibiteur de CDK4 / 6 approuvé pour le traitement du cancer du sein. Sa capacité unique à arrêter le processus de division cellulaire est donc théoriquement associée à une applicabilité large, dans le traitement de nombreux cancers.
Un essai clinique de phase 2 a montré que chez 17 patients atteints de lymphome précédemment traité, Palbociclib aboutit à une réponse complète, 2 réponses partielles, et à une augmentation de la survie sans progression chez 5 patients, qui passe de 4 mois à plus d’un an.
Un autre essai de phase 2 chez 29 patients atteints de sarcomes et traités avec palbociclib montre une augmentation de la survie sans progression de 66 %. De plus, la combinaison de palbociclib avec d’autres anticancéreux montre aussi de premiers résultats positifs dans le traitement du myélome et certaines tumeurs solides, comme le cancer colorectal.
Article rédigé par Georges Simmonds pour RT Flash
JAMA
|
|
|
|
|
|
|
|
Tout le monde connaît le voltarène (Diclofénac), un anti-inflammatoire non stéroïdien associé à un risque de thrombose artérielle. Selon une étude internationale, le Repurposing Drugs in Oncology (ReDO), ce médicament semble limiter considérablement le risque de métastases post-chirurgie.
Cette méta-analyse suggère aujourd’hui qu'il existe suffisamment de données pour lancer des essais cliniques sur l'utilisation du diclofénac dans le traitement du cancer.
Même si ce processus anticancéreux reste encore inexpliqué, ses multiples mécanismes d'action, en particulier par rapport à l'angiogenèse et au système immunitaire, pourraient bien en faire un nouveau médicament anticancéreux très efficace, en particulier lorsqu'il est administré pendant la période péri-opératoire. Le médicament semble en effet et en particulier réduire significativement le risque de métastases post-chirurgicales. Or, ce sont les métastases qui tuent le plus souvent, pas la maladie primaire.
Article rédigé par Georges Simmonds pour RT Flash
Cancer Intelligence
|
|
|
|
|
|
|
|
Des chercheurs du Centre de recherche du Centre hospitalier de l'Université de Montréal ont découvert une enzyme qui neutralise les effets toxiques des excès de sucre dans l'organisme en régulant l'utilisation du glucose et des lipides par différents organes et pourrait ouvrir la voie à de nouveaux traitements contre le diabète et l'obésité. Cette enzyme, appelée glycérol-3-phosphate-phosphatase (G3PP), dont on ignorait jusqu'alors l'existence dans les cellules des mammifères, joue un rôle clé pour éliminer les effets d'un excès de sucre.
Lorsque le glucose est anormalement élevé dans l'organisme, le glycérol-3-phosphate dérivé du glucose atteint des taux excessifs dans les cellules, ce qui peut provoquer des dommages aux tissus. Le glucose et les acides gras sont les principaux nutriments des cellules des mammifères. Leur utilisation dans les cellules régule de nombreux processus physiologiques comme la sécrétion d'insuline par le pancréas, de glucose dans le foie, le stockage des lipides dans les tissus adipeux et le métabolisme des nutriments pour produire de l'énergie. Un dérèglement de ces processus provoque l'obésité, le diabète et des pathologies cardiovasculaires.
L'insuline est une hormone clé produite par les cellules du pancréas pour réguler l'utilisation du glucose et des lipides. Si ces cellules sont exposées à trop de glucose et d'acides gras, les mêmes nutriments deviennent toxiques et les altèrent, provoquant leur dysfonctionnement et le diabète. L'enzyme G3PP est, de ce fait, essentielle au bon fonctionnement du métabolisme en étant nécessaire à la fois pour la production d'énergie et la formation des lipides, soulignent ces scientifiques. Les résultats de ces travaux offrent une nouvelle cible thérapeutique potentielle contre l'obésité, le diabète et le syndrome métabolique, estiment ces chercheurs.
Article rédigé par Georges Simmonds pour RT Flash
PNAS
|
|
|
|
|
|
|
|
Des chercheurs du CNRS, d'Aix-Marseille Université et de l'AP-HM ont identifié un marqueur cérébral spécifique de l'autisme, détectable par IRM et présent dès l'âge de deux ans. L'anomalie repérée consiste en un pli moins profond au niveau de l'aire de Broca, une région du cerveau spécialisée dans le langage et la communication, des fonctions altérées chez les patients atteints d'autisme.
Cette découverte pourrait aider au diagnostic et à une prise en charge plus précoces de ces patients. Elle a été rendue possible par les compétences en traitement d'imagerie médicale de l'Institut de neurosciences de la Timone (CNRS/Aix-Marseille Université) et par l'accès à une cohorte de patients homogène, diagnostiqués très jeunes et ayant tous été évalués selon le même protocole au Centre de ressources autisme PACA.
Les données récentes en neuro-imagerie suggèrent l'existence d'anomalies dans le plissement du cortex cérébral des sujets autistes (la formation des circonvolutions à la surface du cerveau). Cependant, les mesures classiques de neuro-anatomie avaient échoué, jusqu'à maintenant, à mettre en évidence des marqueurs spécifiques de chacun de ces troubles, et notamment de l'autisme typique.
Des chercheurs de l'Institut de neurosciences de la Timone se sont intéressés à un nouveau marqueur géométrique, appelé « sulcal pit ». Il s'agit du point le plus profond de chaque sillon du cortex cérébral. C'est à partir de ces points que se développent les plis présents à la surface du cerveau. Ils sont donc mis en place très tôt au cours du développement, probablement sous influence génétique, ce qui en fait des indicateurs adaptés aux comparaisons entre individus.
A partir de résultats d'IRM, les chercheurs ont observé les sulcal pits chez 102 jeunes garçons âgés de 2 à 10 ans, classés en trois groupes (enfants atteints d'autisme typique, enfants atteints de trouble envahissant du développement non spécifié et enfants dépourvus de troubles du spectre autistique).
En comparant les trois groupes, ils ont découvert que, dans l'aire de Broca (une région connue pour être impliquée dans le langage et la communication), la profondeur maximale d'un sillon était moindre chez les enfants atteints d'autisme par comparaison aux deux autres groupes. De manière intéressante, cette atrophie très localisée est corrélée aux performances de communication chez le groupe d'enfant autistes : plus le sulcal pit est profond, plus les compétences en termes de production de langage sont limitées.
Cette anomalie spécifique aux enfants atteints d'autisme pourrait donc constituer un biomarqueur de la pathologie qui pourrait aider à un diagnostic et à des prises en charge plus précoces, dès l'âge de deux ans, au lieu de quatre ans et demi.
Article rédigé par Georges Simmonds pour RT Flash
Science Direct
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|