|
|
|
|
|
NUMERO 882 |
|
|
|
|
|
|
|
Edition du 13 Janvier 2017
|
|
|
|
|
Edito
La ville du futur sera intelligente
L’urbanisation est certainement l’un des phénomènes humains les plus frappants depuis un siècle et quelques chiffres suffisent à s’en convaincre : en 1900, moins d’un homme sur dix vivait en ville, alors qu’aujourd’hui c’est le cas pour 55 % de l’Humanité et l’on estime que, dans 15 ans, cinq milliards d’êtres humains vivront en milieu urbain et que, 30 ans plus tard, deux terriens sur trois, soit sept milliards d'humains vivront en ville…
On compte aujourd’hui plus d’un million d’unités urbaines dans le monde, dont 417 comptent plus d’un million d’habitants et 36 regroupent déjà plus de dix millions d’habitants. Et cette tendance va se poursuivre puisque qu’on estime qu’en 2050 les dix plus grandes villes du monde regrouperont à elles seules 330 millions d’habitants, c’est-à-dire plus que la population actuelle des Etats-Unis…
En 2015, 12 % de la population mondiale résidaient déjà dans les 28 plus grandes villes du globe et 140 villes concentraient 45 % du PIB européen. Mais dans 15 ans, les 750 villes de plus d’un million d’habitants que comptera la planète produiront 60 % du PIB mondial. Dans un discours prophétique prononcé en 2009, l'ancien maire de Denver, Wellington Webb, a parfaitement résumé l’importance de cet enjeu urbain, en déclarant « Le XIXe siècle était un siècle d'empires, le XXe un siècle d'états-nations. Le XXIe siècle sera celui des villes ».
Un seul chiffre résume à lui seul la révolution numérique urbaine en cours : 50 millions d’objets connectés aujourd’hui, 50 milliards d’ici 2020 ! L’utilisation croissante des données massives (Big Data), dont le volume mondial double tous les deux ans, est en train de révolutionner l’organisation, la gestion et la gouvernance des villes en leur donnant accès à des flux immenses d’informations qu’il est à présent possible d’exploiter pleinement grâce à l’intelligence artificielle combinée à la puissance des systèmes informatiques.
Dans ce domaine, la dernière évolution en date est certainement celle des chatbots, qui permet une intelligence conversationnelle dans l’analyse des données, ce qui se traduit concrètement par des interfaces de dialogue naturel entre les utilisateurs humains et les différents systèmes informatiques chargés de la gestion urbaine.
De manière remarquable, les chatbots sont également en train de bouleverser l’organisation et le fonctionnement des démocraties urbaines. Aux États-Unis, dans l’Illinois le compte Twitter Trib IL Campaign cash est par exemple géré par un bot chargé d’assurer la transparence du financement des campagnes électorales. C’est ainsi que chaque donation d’un montant supérieur à 1000 $ faite à un candidat est identifiée et comptabilisée par un bot qui va également rechercher automatiquement des informations sur le donateur. Grâce à cette application, les habitants de l’Illinois peuvent facilement savoir quels candidats reçoivent des financements, et de quels donateurs provient cet argent. Il faut également citer l’exemple du site ManyChat qui permet aux hommes politiques de créer facilement un bot destiné à dialoguer sur le réseau social. Mais cette application ne se contente pas de gérer automatiquement l’information descendante, elle est également capable d’analyser intelligemment l’information remontante en décortiquant et en plaçant les remarques et réponses provenant des citoyens…
En Europe, Copenhague est incontestablement avec Barcelone, l’une des grandes métropoles les plus innovantes en matière de gestion et de gouvernance numériques. Dans cette région urbaine très dense, qui compte 1,3 million d’habitants (près d’un quart de la population du Danemark) les autorités locales ont conçu et mis en œuvre, en étroite concertation avec la population, une politique de développement numérique particulièrement riche et ambitieuse. De manière remarquable, Copenhague considère qu’il faut traiter comme un tout cohérent et global les problématiques complexes liées à l’énergie, à l’environnement, au transport et au développement urbain. Mais si les autorités locales jouent évidemment un rôle d’impulsion et de proposition, elles se refusent d’imposer « d’en haut » des solutions technologiques standard et uniformes aux habitants.
Ces derniers sont systématiquement consultés sur la pertinence de chaque nouvelle application numérique et si celle-ci ne donne pas satisfaction aux utilisateurs après expérimentation sur le terrain, elle est abandonnée sans état d’âme. Pour la capitale danoise et ses habitants, la technologie n’est en aucun cas une fin en soi et doit toujours être au service des usagers et s’articuler aux grands objectifs démocratiques définis par la population. La priorité de Copenhague est clairement affirmée : devenir la première métropole neutre en carbone dès 2025. Tous les services innovants participant au développement numérique de cette ville doivent donc être conçus et mis en œuvre de manière à servir en priorité cet objectif majeur.
Fidèle à l’esprit pragmatique qui caractérise la culture danoise, Copenhague expérimente les solutions numériques à tour de bras grâce à ses « laboratoires vivants » (Living Labs). La nouvelle étape du développement numérique de la capitale danoise est le projet EnergyLab Nordhavn qui va s’étaler sur quatre ans et vise à intégrer dans un système global, flexible et évolutif la production propre d’énergie et de chaleur à destination de l’industrie, des transports et des bâtiments d’habitation et de bureaux.
En matière de gestion et de traitement des déchets, Copenhague s’est dotée de poubelles intelligentes munies de capteurs qui permettent, au service municipal de ramassage des ordures, d’optimiser la collecte des déchets et d’anticiper leur recyclage et leur valorisation en aval. Les déplacements urbains constituent également l’un des grands axes stratégiques de développement numérique de Copenhague. Dans cette ville très dense, où un tiers du trafic automobile correspond à des automobilistes cherchant une place de stationnement, la gestion des places de parking se fait en temps réel et chaque automobiliste peut s’informer sur son Smartphone de la disponibilité de l’offre de stationnement le plus proche.
Mais Copenhague prépare déjà une autre révolution numérique, celle de l’ouverture des données massives et de la fusion des données publiques et privées. En mai dernier, la capitale danoise a inauguré la première place de marché pour la commercialisation de données publiques et privées. Baptisée City Data Exchange Copenhagen, cette plate-forme unique en son genre a été développée en collaboration avec Hitachi Insight Group. Elle vise à permettre un accès beaucoup plus large aux flux croissant de données publiques et privées. Dans ce pays très sourcilleux sur la protection de la vie privée et des libertés individuelles, les autorités municipales ont dû garantir à la population que l’ensemble des données qui seront échangées sur la City Data Exchange seront traitées selon des protocoles très stricts garantissant leur anonymat.
Au sud de l’Europe, Barcelone fait également figure de laboratoire d’expérimentation numérique. Dans cette ville caractérisée par une culture très marquée, axée sur la convivialité et la solidarité entre générations, les services numériques sont d’abord déployés pour préserver le lien social des personnes âgées qui représentent déjà plus de 20 % de la population. Barcelone a notamment lancé le projet Vincles BCN qui vise à généraliser la télésanté et la télémédecine. La démocratie participative est également au cœur de ce développement numérique, comme le montre le succès de la plate-forme de participation ouverte Decidim qui permet aux habitants de soumettre aux élus leurs suggestions et propositions. Il est également possible pour chaque habitant de signaler en temps réel, via son Smartphone, un dysfonctionnement ou un problème aux autorités municipales, qu’il s’agisse d’une chaussée endommagée, d’un lampadaire défectueux ou d’un accident de voiture.
La capitale catalane a également développé un remarquable service d’administration électronique qui permet à tous les habitants, grâce à l’application Mobile ID, d’accomplir en ligne une multitude de formalités administratives à partir de son mobile et de prendre rendez-vous avec les services municipaux. Comme à Copenhague, les places de stationnement sont gérées de manière intelligente grâce à des capteurs et l’éclairage public se coupe automatiquement lorsqu’il ne détecte pas de présence humaine à proximité.
Il faut enfin évoquer les expérimentations numériques en cours de généralisation à Singapour, première ville au monde à proposer un système électronique de péage dont le montant évolue en fonction du trafic. En attendant de pouvoir proposer à tous ses habitants des déplacements urbains à l’aide de navettes autonomes, Singapour a lancé en novembre 2014 l’ambitieux programme « Smart Nation » qui vise à collecter et à traiter de manière intelligente le maximum de données publiques et privées dans le but d’offrir une multitude de nouveaux services aux habitants.
La priorité des autorités politiques de cette mégapole, qui compte plus de 5 millions d’habitants, est de limiter drastiquement l’usage des voitures particulières en recourant notamment à un système très efficace de dissuasion financière, entièrement contrôlé par les technologies numériques : vignette annuelle pour le droit d’utiliser son véhicule, péage journalier pour l’accès à certaines zones urbaines et péages pour le stationnement.
Pour compenser ces restrictions toujours plus grandes visant à terme à éliminer complètement les véhicules particuliers de cette cité-État, Singapour a mis en œuvre un vaste plan destiné à gérer de manière souple et intelligente la flotte de bus qui transportent quotidiennement plus de 3 millions de personnes. Mais ce gigantesque laboratoire asiatique du développement numérique urbain veut aller encore plus loin en intégrant d’ici cinq ans toutes les données publiques et privées dans une plate-forme baptisée Virtual Singapore qui permettra d’évoluer virtuellement et en trois dimensions dans cette mégapole tentaculaire.
Mais il ne faudrait pas croire que cette révolution numérique urbaine est un luxe de pays riches qui se limite aux villes prospères d'Amérique du Nord ou d'Europe. Il est impossible ici de recenser les multiples expérimentations en cours dans les pays émergents mais il faut au moins évoquer l’exemple de l’État de Rio au Brésil. Dans cette région qui dispose de moyens financiers et budgétaires bien plus limités qu’aux États-Unis, en Europe ou à Singapour, et doit faire face à des défis urbains autrement plus grands, une petite équipe de quelques dizaines de personnes a réussi à accomplir un travail remarquable en développant et en adaptant les technologies numériques aux besoins spécifiques de la population locale. La « Pensa team » brésilienne n’a pas beaucoup de moyens mais elle fourmille d’idées et de projets, tous plus innovants les uns que les autres et principalement axés sur la santé, l’environnement et la sécurité.
Parmi les succès éclatants à mettre au crédit de cette petite organisation chargée du développement numérique, il faut mentionner le contrôle de l’épidémie de dengue en 2014, dont les cas ont pu être réduits de 98 % d'une année à l'autre, grâce au recueil et au croisement intelligents des différents flux de données médicaux, sanitaires et sociaux disponibles. Aujourd’hui, la Pensa Team continue à innover et travaille sur des systèmes prédictifs visant à prévenir les inondations et intempéries dévastatrices des régions tropicales et à améliorer la qualité de service des transports en commun, tout en réduisant leurs coûts pour l’usager et la collectivité. Comme l’explique le responsable de cette équipe de choc, Pablo Cerdeira, « Nous avons à présent à notre disposition des outils d’évaluation modulables qui nous permettent de modéliser et d’évaluer l’efficacité et les coûts sociaux de toutes les politiques publiques mises en œuvre, et cela change tout ».
Il est frappant d’observer qu’au-delà de la grande diversité de ces expérimentations et des contextes sociaux et culturels dans lesquels elles se déroulent, le développement numérique urbain fonctionne et produit des résultats parfois étonnants à partir du moment où il est pensé, non pas en fonction de la technologie mais pour être au service des citadins et répondre concrètement à leurs besoins et à leurs aspirations.
Il est également très encourageant de constater que les quelques projets de villes intelligentes que j’ai évoqués montrent à quel point le développement économique, la maîtrise de l’énergie, la protection de l’environnement et la démocratie participative sont intimement liés et doivent être appréhendés, non comme des problématiques distinctes mais comme des composantes intrinsèquement interdépendantes qui fonctionnent selon le principe de la synergie positive : améliorer, grâce aux technologies numériques et aux données massives, la santé, les transports et l’environnement d’une population urbaine, a fortiori dans un pays émergent, est le meilleur moyen de favoriser le développement économique d’une mégapole et l’épanouissement individuel de ses habitants qui passe par un accès à l'éducation, à la santé et à l'emploi.
Je suis convaincu que cette spirale numérique vertueuse, dont le coût est finalement dérisoire par rapport aux bénéfices qui en résultent, représente pour notre siècle une formidable opportunité, qui va permettre de repenser nos modèles de gouvernance et d’économie urbaines et d’offrir aux 7 milliards de citadins qui peupleront nos villes avant la fin de ce siècle un niveau de prospérité et une qualité de vie que nous pouvons à peine imaginer aujourd’hui.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs indiens de l’Indian Institute of Science Education and Research (IISER) de Calcutta ont mis au point un procédé permettant d’administrer un médicament de façon ciblée dans les cellules cancéreuses, en utilisant des nanosphères fabriquées à partir de citronnelle.
Les molécules thérapeutiques (doxorubicine) sont transportées par des nanosphères poreuses, synthétisées à partir de citronnelle, selon un procédé simple et peu coûteux. Alors que l’intérieur des cellules saines est de pH neutre, celui des cellules cancéreuses est acide ; des conditions qui permettent de libérer les molécules attachées à la nanosphère par liaison covalente, et de détruire les cellules malades.
Pour protéger davantage les cellules saines, l’équipe de chercheurs a attaché de l’acide folique aux nanosphères, dont les récepteurs (folates) sont présents en nombre sur les cellules cancéreuses, mais pas sur les cellules normales ; ceci renforce le ciblage des cellules cancéreuses tout en facilitant la pénétration des nanosphères.
L’utilisation de ces nanosphères poreuses présente un second avantage : une libération contrôlée des molécules thérapeutiques dont la diffusion au sein des cellules cancéreuses peut s’étaler sur une période de 24 à 48 heures.
Les résultats de cette étude montrent que la quantité de molécules thérapeutiques administrée au moyen de ces nanosphères apparaît 10 fois plus élevée à l’intérieur des cellules cancéreuses en comparaison des traitements anticancéreux classiques.
Article rédigé par Georges Simmonds pour RT Flash
The Hindu
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut parisien de chimie moléculaire (CNRS/UPMC) et de l'Institut de physique et chimie de Strasbourg (CNRS/Université de Strasbourg) viennent de synthétiser de nouveaux nanofils moléculaires présentant des raies d'émission lumineuse très intenses et de longueur d'onde unique.
Dans le but d'une ultime miniaturisation des composants électroniques entrant par exemple dans la conception des futurs écrans de nos appareils "high-tech" (télévisions, smartphones, tablettes...), le développement de nouvelles sources de lumière de taille nanométrique à base de matériaux organiques (nanofils) avec une longueur d'onde d'émission contrôlée est essentiel.
Poursuivant cet objectif, des équipes de chimistes et de physiciens de l'Institut parisien de chimie moléculaire et de l'Institut de physique et chimie de Strasbourg sont parvenus à synthétiser, dans l'enceinte d'un microscope à effet tunnel, différents nanofils (macro)moléculaires incorporant des molécules luminescentes à base de dérivés de porphyrine, spécialement élaborés pour présenter des longueurs d'ondes d'émission différentes.
Ces nanofils ont ensuite été suspendus entre la pointe du microscope et la surface d'or de manière à former un nano-composant optoélectronique dont l'élément actif est une molécule unique. Un courant électrique a enfin été appliqué entre la pointe et la surface métallique servant d'électrodes, afin d'exciter la luminescence des molécules de porphyrine.
Ces dispositifs électroluminescents présentent des raies d'émission lumineuse très intenses, étroites, et à une longueur d'onde unique qui dépend directement de la porphyrine choisie, ce qui les rend particulièrement attractifs pour le développement futur d'une nouvelle génération de composants électroniques.
Article rédigé par Georges Simmonds pour RT Flash
Nano Letters
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Est-il envisageable de remplacer les carburants fossiles, polluants et non renouvelables, par de l'hydrogène ? Certains marchés comme les flottes d'utilitaires utilisent déjà des piles à combustible à hydrogène, mais les technologies existantes nécessitent l'utilisation d'un électrolyseur, avec un apport d'énergie primaire ou du stockage haute pression.
HySiLabs, issue d'une trouvaille fortuite dans un laboratoire de recherche de l'Université d'Aix-Marseille, produit de l'hydrogène à partir d'hydrures de silicium, d'eau et d'un catalyseur à faible coût, le tout dans les conditions de pression atmosphérique et de température ambiante. "On retrouve cette réaction chimique dans la nature mais le processus spontané est très lent, avec un rendement de 30 %. Chez HySiLabs, la réaction a été quasi instantanée avec un rendement de 100 %", explique Pierre-Emmanuel Casanova, cofondateur de la start-up avec Vincent Lôme.
"Notre technologie repose sur une réaction chimique brevetée (via un catalyseur) qui permet de libérer à la demande en moins de 10 secondes une grande quantité d’hydrogène en mélangeant à pression atmosphérique et à température ambiante deux liquides facilement manipulables (hydrure de silicium et eau). Le gaz ne doit donc plus être stocké car il est généré au moment de sa consommation, ce qui permet de s’affranchir du transport", précise Pierre-Emmanuel Casanova.
Cette solution, dont les détails relèvent du secret de fabrication, présente de nombreux avantages : l'hydrure de silicium est un déchet inerte de l'industrie du silicone, disponible en quantité, qui pourrait donc être réutilisé à l'échelle industrielle pour générer ce carburant du futur.
Ce processus ne produit par ailleurs que du sable, qui pourrait être valorisé à son tour dans le secteur du BTP. Autre argument : contrairement aux autres technologies, les problèmes de stockage, de transport et de sécurité ne se posent pas puisque l'électricité est générée à la demande de l'utilisateur, directement sur site. "Nous supprimons les bonbonnes en utilisant les piles à combustible avec notre système, qui va transformer directement les deux liquides en présence en hydrogène".
Pour l'instant, cette forme de production d'hydrogène est encore trop peu compétitive pour l'intégrer dans des véhicules grand public. HySiLabs se destine à court terme aux marchés dits stationnaires comme les systèmes de secours en remplacement des groupes électrogènes au fioul, les entrepôts de logistique utilisant des chariots élévateurs. La start-up d'origine aixoise, créée en février 2015, envisage également le marché du soutien aux énergies renouvelables, pour remédier aux intermittences de soleil et de vent.
Article rédigé par Georges Simmonds pour RT Flash
CCIMP
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Selon une étude de l’Agence européenne du médicament, les nouveaux traitements contre l’hépatite C, très efficaces mais également très coûteux, sont susceptibles de réactiver le virus de l’hépatite B chez des patients atteints par les deux virus.
A la suite d’un réexamen, lancé en mars 2016 à la demande de l’Union européenne, l’EMA a confirmé que des patients traités par des antiviraux d’action directe (AAD) couraient le risque d’une réactivation du virus de l’hépatite B, potentiellement mortelle. Une réactivation signifie qu’une infection par le virus de l’hépatite B (VHB), jusque-là latente chez un patient, redevient active.
Apparus sur le marché ces dernières années, les AAD sont des médicaments qui bloquent la capacité de multiplication du virus de l’hépatite C (VHC) et qui sont nettement plus performants que les traitements conventionnels (interféron et ribavirine).
Bien que seulement 30 cas de réactivation du virus de l’hépatite B aient été observés parmi les milliers de patients traités, le Comité pour l’évaluation des risques en matière de pharmacovigilance (PRAC – Pharmacovigilance Risk Assessment Committee) de l’EMA recommande qu’un avertissement soit à l’avenir inclus dans la notice d’information de ces médicaments et que tous les patients soient testés pour le VHB avant de recevoir un traitement contre le VHC.
Ceux qui sont infectés par les deux virus devront faire l’objet d’une surveillance spéciale, ajoute le PRAC. Le comité a également passé en revue les données liant les nouveaux traitements anti-VHC à des cancers du foie, mais a conclu que de nouvelles études seraient nécessaires avant de pouvoir se prononcer.
Il n’existe actuellement pas de vaccin contre le virus de l’hépatite C, qui touche environ 170 millions de personnes dans le monde, mais l’arrivée des antiviraux d’action directe (AAD) a constitué une véritable révolution avec des taux de guérison spectaculaires. Il existe en revanche un vaccin très efficace contre l’hépatite B.
Article rédigé par Georges Simmonds pour RT Flash
EMA
|
|
|
|
|
|
|
|
Selon une vaste étude américaine, le fait pour une femme d'avoir été infectée par la grippe pendant sa grossesse ne ferait pas courir à l'enfant un risque accru d'autisme. Il n'y aurait pas non plus de relation de cause à effet entre la vaccination des femmes enceintes contre ce virus et une augmentation des cas d'autisme.
Ces travaux ont porté sur 196 929 enfants nés entre 2000 et 2010. Dans ce groupe, 1 400 femmes enceintes (0,7 %) ont été diagnostiquées de la grippe et 45 231 (23 %) ont été vaccinées contre cette infection pendant leur grossesse.
Bilan : sur les 196 929 enfants nés, 3 101 (1,6 %), ont été diagnostiqués d'un trouble du spectre de l'autisme (TSA), ce qui n'indique pas d'accroissement du risque lié à une infection de la grippe de la mère pendant la grossesse. Au États-Unis, la fréquence de l'autisme est en effet d'un enfant sur 68, soit 1,46 % du total des naissances, selon les dernières estimations des autorités sanitaires.
Article rédigé par Georges Simmonds pour RT Flash
JAMA
|
|
|
|
|
|
|
|
Après une journée stressante ou une dispute, trouver le sommeil est quasiment impossible. Et même après avoir dormi, cette colère nous accompagne généralement jusqu’au matin. En cause : l'incapacité de notre cerveau à supprimer ces émotions négatives au cours de la nuit.
Le sommeil est connu pour sa capacité à consolider les apprentissages réalisés précédemment. On dit souvent aux enfants de lire une dernière fois leurs leçons avant de se coucher pour que leur cerveau les enregistre dans la mémoire à court et long terme. Un circuit qu’empruntent également les souvenirs douloureux et émotions négatives, selon les chercheurs chinois de l’Université de Pékin et Shenzhen ainsi que des neuroscientifiques américains de l’Université de Stanford.
Pour mettre en lumière ce mécanisme, les neuroscientifiques ont étudié 73 étudiants pendant 2 jours et deux nuits. Dans la journée, ils leur ont demandé de mémoriser une série de photos de visages neutres et agressifs. L’objectif : générer un souvenir immédiat du cliché de la personne en colère lorsqu’ils visualisent la photo neutre. Les volontaires ont ensuite essayé d’effacer de leur mémoire ces souvenirs négatifs, avant de réitérer le test le lendemain. Tout au long de ces tests, l’activité cérébrale des étudiants a été enregistrée.
Entre ces deux journées de tests, tous les participants ont rapporté avoir passé une bonne nuit de sommeil. Mais même en dormant sur leurs deux oreilles, ils n’ont pas réussi à éliminer de leur mémoire ces souvenirs négatifs.
L’analyse de l’activité cérébrale des volontaires montre que les circuits neuronaux impliqués dans la suppression de la mémoire, qui sont initialement situés dans l’hippocampe (une structure essentielle à la mémoire) se sont dispersés dans le cortex (couche supérieure du cerveau).
C’est ce déplacement qui expliquerait pourquoi il est si difficile de se débarrasser rapidement des souvenirs désagréables. Ces résultats pourraient aider les médecins à mieux comprendre certains troubles de la mémoire comme le stress post-traumatique.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Transporter les vaccins dans une chaîne du froid jusqu’à l’injection au patient représente un défi logistique et économique considérable dans les régions reculées et les pays en voie de développement. Selon Médecins sans frontières, la nécessité de conserver les doses à une température comprise entre 2 et 8°C serait même l’une des causes principales des faibles taux de couverture vaccinale.
A l’EPFL, des chercheurs du Laboratoire des nanomatériaux supramoléculaires, en collaboration avec des scientifiques de Milan, Turin, Leiden et de l’Oregon, ont utilisé trois sortes d’additifs peu coûteux pour contourner cet obstacle. Ils sont parvenus à stabiliser des vaccins à température ambiante jusqu’à plusieurs mois en utilisant tour à tour d’infimes quantités de nanoparticules, d’infimes quantités de polymères (approuvés par l’ Agence américaine des produits alimentaires et médicamenteux - FDA), et des quantités à peine supérieures de saccharose (un sucre commun). Leur méthode, testée avec succès sur un vaccin pour rongeurs, est publiée dans Nature Communications.
L’étude concerne les vaccins dits à vecteur viraux, soit la majorité des vaccins existants. En temps normal, leur survie est de quelques jours seulement à température ambiante. Passé ce délai, la structure des éléments viraux se défait.
« Les éléments viraux sont fluctuants par définition. Dans un vaccin, ils sont assemblés en une forme stable, et c’est le froid qui maintient l’équilibre. Avec la chaleur, les fluctuations détruisent leur intégrité », explique Francesco Stellacci, directeur du SUNMIL – Chaire Constellium. Pour contrer ce phénomène, l’idée consiste à ajouter aux vaccins des additifs simples et biocompatibles, pour les stabiliser. Les trois différentes approches ont déjà donné d’excellents résultats. Le première solution consiste à exercer une pression osmotique sur le virus inactivé, à l’aide d’un nuage de nanoparticules chargées négativement.
Les virus sont déjà sujets à une pression osmotique externe, car leur matériel génétique (ARN ou ADN) est hautement chargé négativement. En créant un nuage de nanoparticules chargées négativement, il est possible de générer une contre-pression osmotique, et garder le virus intact. « Avec cette méthode, la capacité infectieuse du virus atteint une demi-vie de 20 jours », témoigne le scientifique.
La deuxième approche consiste à rigidifier l’enveloppe (capside) qui entoure le virus inactivé, en y ajoutant des polymères (polyéthylène glycol). Lorsque la capsule se rigidifie, les oscillations ralentissent, et le vaccin est stabilisé. Résultat : les propriétés du vaccin sont restées 100 % intactes pendant 20 jours, avec une demi-vie estimée à près de 70 jours.
Enfin, en ajoutant du saccharose au vaccin, l’environnement devient plus visqueux, et ralentit les fluctuations. « Un peu comme dans un environnement de miel, où les mouvements sont ralentis », illustre Francesco Stellacci. Cette dernière solution a permis de préserver 85 % des propriétés du vaccin après 70 jours.
Ces chercheurs ont appliqué leurs méthodes sur un produit actuellement en développement. Ils ont pu stabiliser un vaccin contre le virus tropical Chikungunya pendant 10 jours, puis l’injecter avec succès à des souris. « La prochaine étape consiste à faire des tests plus approfondis sur des vaccins spécifiques, pourquoi pas en mélangeant les différents procédés ». Cette recherche pourrait ouvrir de nouvelles possibilités dans la lutte pour l’accès à la vaccination.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
L’hétérogénéité tumorale définit les différences qui existent entre les tumeurs de différents patients, mais également entre les cellules tumorales au sein d’une même tumeur. Ces différences ont des implications majeures pour le diagnostic, le pronostic et la thérapie des patients souffrant d’un cancer.
Plusieurs mécanismes ont été proposés pour expliquer la cause de cette hétérogénéité tumorale, telle que la transition épithélio-mésenchymateuse, un processus dans lequel les cellules tumorales perdent leurs caractéristiques épithéliales telle que l’adhésion intercellulaire et acquièrent des caractéristiques de cellules mésenchymateuses, plus invasives, avec des propriétés migratoires importantes.
Cet état mésenchymateux est associé au développement des métastases et à la résistance aux traitements. La raison pour laquelle certaines tumeurs effectuent cette transition épithélio-mésenchymateuse, et d’autres pas, pourrait être le reflet de leur cellule d’origine, mais cette possibilité n’avait jusqu’alors jamais été étudiée.
C’est désormais chose faite, grâce aux travaux des chercheurs de l’équipe du Docteur Cédric Blanpain, professeur à l’Université libre de Bruxelles. Ils ont démontré pour la première fois, que la cellule à l’origine des cancers influence la transition épithélio-mésenchymateuse dans le carcinome spinocellulaire cutané, le second cancer de la peau le plus fréquent.
Ces recherches montrent qu’au sein d’un même tissu, certaines cellules peuvent donner des cancers beaucoup plus agressifs et conduisent à l’apparition de métastases alors que d’autres cellules donnent lieu à des cancers moins invasifs et répondant mieux aux traitements. D’où l’importance de l’origine des cancers dans leur développement futur et leur niveau d’agressivité.
Article rédigé par Georges Simmonds pour RT Flash
L'Echo
|
|
|
|
|
|
|
|
Des chercheurs du WELBIO (Institut wallon de recherche d’excellence en sciences de la vie) et de l’Université Catholique de Louvain (UCL), ont annoncé deux avancées majeures dans la lutte contre l’obésité et le diabète de type 2. Ils sont parvenus à stopper le développement de ces deux maladies, chez la souris, via deux traitements distincts basés sur une bactérie appelée Akkermansia.
Depuis 10 ans, Patrice Cani et son équipe, en collaboration avec le Professeur Willem de Vos, de l’Université de Wageningen, travaillent sur une bactérie appelée Akkermansia muciniphila, qui, et ce sont les chercheurs UCL qui l’ont démontré les premiers, joue un rôle déterminant dans la lutte contre l’obésité et le diabète de type 2. Cette hypothèse, émise par les chercheurs UCL dès 2007 et prouvée en 2013, a aujourd’hui été confirmée par d’autres chercheurs internationaux et fait office désormais de fait acquis.
Ces travaux ont pu montrer que lorsque l’on utilise la bactérie Akkermansia, vivante, elle réduit les effets liés à l’obésité et au diabète, chez la souris. Les chercheurs UCL ont donc entrepris de reproduire Akkermansia afin d’entreprendre des tests sur l’homme. Ces tests cliniques, menés au sein des Cliniques universitaires Saint-Luc (UCL) depuis décembre 2015, sont en cours et viennent de passer la première étape, à savoir qu’ils sont « safe » ou non-dangereux pour le corps humain. Reste toujours à déterminer si les effets positifs des tests effectués sur la souris se confirment chez l’homme.
La découverte de cette protéine est d’autant plus prometteuse qu’elle a également un impact positif sur notre système immunitaire : elle bloque le passage des toxines dans le sang et renforce ainsi les défenses immunitaires de l’intestin, comme par exemple dans le cas d’un intestin poreux (perméable). La protéine Amuc_1100 donne donc un espoir thérapeutique pour d’autres maladies, telles que l’inflammation de l’intestin.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs danois ont découvert que les rayonnements ultraviolets UV-B sont très efficaces contre les bactéries et moins dangereux pour les cellules que les UV-C, ce qui ouvre des perspectives de traitements par UV-B alternatifs aux antibiotiques.
Le Soleil émet plusieurs types de rayonnements ultraviolets : les UV-A, UV-B et UV-C. Les UV-A peuvent pénétrer la peau et sont notamment responsables du bronzage et des coups de soleil. Les UV-B, en partie stoppés par la couche d’ozone, peuvent être plus dangereux pour le corps humain, mais ils permettent la production de la vitamine D. Les UV-C ont la longueur d’onde la plus courte et sont les plus dangereux car ils peuvent potentiellement endommager l’ADN cellulaire. Ils sont cependant bloqués par la couche d’ozone.
Les UV-C sont déjà bien connus pour leur capacité à tuer les bactéries. Recréés artificiellement grâce à des LED, ils sont fréquemment utilisés pour la purification de l’eau ou la stérilisation du matériel médical. Au cours d’expériences destinées à tester leur potentiel de destruction de certaines bactéries, des chercheurs de l’université technique du Danemark (DTU – Département de photonique) et de l’université de Copenhague se sont rendu compte que les rayons UV-B avaient un effet antibactérien encore plus élevé.
La résistance des bactéries aux antibiotiques traditionnels est une question de santé publique majeure. Elle s’explique dans certains cas par l’agglutinement de différentes sortes de bactérie formant un biofilm. Cela peut se produire par exemple au niveau des racines dentaires, avec une accumulation de bactéries à l’intérieur de la gencive. Les traitements consistent alors à nettoyer mécaniquement la zone ou à utiliser des fluides d’irrigation. Ces procédés sont néanmoins complexes et n’éliminent pas toujours toutes les bactéries.
Les UV-B étant nettement moins dangereux pour les cellules que les UV-C, les scientifiques imaginent donc les utiliser comme alternative aux antibiotiques, notamment pour traiter des zones où sont fréquemment observés des cas de résistance bactérienne : racines dentaires, zones autour d’implants, poumons, etc. La technologie des fibres optiques pourrait permettre de faire parvenir la lumière jusqu’aux zones infectées.
De nombreux tests seront encore nécessaires avant la mise au point de traitements par UV-B efficaces. La DTU-Photonique, le Costerton Biofilm Centre de l’université de Copenhague (centre interdisciplinaire de recherche s’intéressant aux infections bactériennes chroniques) et le département d’odontologie de l’Université de Copenhague vont donc poursuivre leurs recherches sur le sujet.
Article rédigé par Georges Simmonds pour RT Flash
TUD
|
|
|
|
|
|
|
|
Les cellules T jouent un rôle majeur dans le système immunitaire en nous protégeant contre les agents pathogènes. Mais ces cellules peuvent aussi se retourner contre des cellules saines. Les chercheurs de l’Université technique de Munich (TUM) et du Centre médical universitaire de l’Université Johannes Gutenberg de Mayence ont ainsi élucidé le processus par lequel certaines cellules T deviennent des cellules T pathogènes associées à la sclérose en plaques. Leurs résultats identifient une 3e voie de transformation et expliquent pourquoi certains traitements ne sont pas toujours efficaces.
La sclérose en plaques (SEP) est une maladie auto-immune dans laquelle le système immunitaire du corps attaque les cellules du patient. Les cellules T modifiées détruisent la gaine de myéline entourant les cellules nerveuses. La myéline protège les voies nerveuses et est donc essentielle à la capacité des cellules nerveuses à transmettre l’information.
La maladie entraîne des troubles musculaires, de l’équilibre et de la vision. 85 % des patients sont atteints par la forme rémittente de la maladie, qui se manifeste par poussées, avec l’apparition de troubles moteurs, sensitifs et cognitifs, qui régressent en quelques semaines. Si la SEP représente la cause la plus fréquente d’invalidité neurologique chez l’adulte jeune, il n’existe actuellement aucun remède définitif, seulement des traitements permettant d’atténuer les symptômes. Les symptômes de la SEP peuvent évoluer vers un handicap irréversible.
Les zones du corps ciblées par les cellules T et l’impact qu’elles auront dépendent de différents facteurs. Dans une précédente étude, Thomas Korn, professeur de neuroimmunologie, avait déjà démontré qu’une substance connue sous le nom d’interleukine 6 (IL-6) joue un rôle important dans la propension des cellules T à endommager les gaines de myéline.
Les lymphocytes T sont en fait transformés en agents pathogènes dans les ganglions lymphatiques après "rencontre" avec un certain type de cellules dendritiques. Les signaux de ces cellules dendritiques les poussent à déclencher des réactions immunitaires dans d’autres parties du corps. Et lorsque ces lymphocytes T pathogènes reconnaissent la gaine de myéline, ils déclenchent la maladie auto-immune. Mais pour cela, il faut 2 facteurs, que les cellules dendritiques signalent non seulement la myéline comme une "substance cible", mais sécrètent aussi l’IL-6.
Reste que les lymphocytes T ne sont pas toujours pathogènes lorsque l’IL-6 est sécrétée, pourquoi ? Parce que, comme le montrent ces travaux, le facteur décisif n’est pas seulement le signal envoyé par les cellules dendritiques aux cellules T, c’est aussi la manière dont elles l’envoient…
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Selon une étude de l’Université de Montréal, l'exposition au tabagisme passif augmenterait les risques de troubles du comportement et de décrochage scolaire chez les enfants et adolescents.
Pour Linda Pagani, auteur principal de l’étude et à l'École de psychoéducation de l'Université de Montréal, "Plus les enfants en bas âge sont exposés à la fumée du tabac à la maison, plus ils sont à risque d'adopter un comportement antisocial à l'égard des autres, de manifester de l'agressivité proactive et réactive, d'avoir des problèmes de conduite à l'école et de décrocher à 12 ans".
Les chercheurs ont travaillé à partir des données d'une cohorte de 1.000 filles et garçons suivis depuis la naissance. Chaque année, les parents ont indiqué si quelqu'un fumait à la maison, entre les 1,5 et 7,5 ans de l’enfant. Les chercheurs ont ensuite pris en compte les comportements antisociaux et les résultats scolaires des enfants à l’âge de 12 ans. 60 % des familles ont déclaré n'avoir jamais été exposées à la fumée du tabac, 27 % de façon intermittente et 13 % de façon chronique.
Les chercheurs ont également pris en compte les facteurs de confusion possibles dont l'exposition aux drogues et à l'alcool durant la grossesse et autres caractéristiques parentales et familiales.
L’analyse révèle un lien entre l'intensité du tabagisme passif à l’enfance et le risque accru de troubles du comportement et de décrochage scolaire à la préadolescence. Cette étude pourrait conduire les autorités canadiennes de santé à sensibiliser les parents sur les risques pour le développement engendrés par l'exposition de leurs enfants à la fumée de leur tabagisme.
Article rédigé par Georges Simmonds pour RT Flash
Wiley
|
|
|
|
|
|
|
|
Ces chercheurs du Colorado ont voulu savoir si une dose élevée de vitamine D chez les personnes âgées vivant dans des établissements de soins de longue durée pouvait permettre de réduire leur risque d’infections respiratoires aiguës, dont la pneumonie.
La vitamine D (ou Calciférol) aide le corps de multiples façons : produite dans les couches profondes de l’épiderme avec l’exposition aux rayons UV du soleil, elle peut aussi faire l’objet d’une supplémentation : sa carence est cause de rachitisme et de déminéralisation osseuse.
La vitamine D intervient en effet dans la minéralisation de l’os, augmente l’absorption du calcium, favorise la croissance, joue un rôle de stimulation de l’immunité innée et module l’immunité acquise. Elle améliore aussi la performance musculaire et pourrait réduire le risque de cancer du sein et colorectal. Plusieurs études ont également documenté l’intérêt d’une supplémentation en Vitamine D sur les pathologies respiratoires (grippe, tuberculose, asthme). Ses besoins journaliers sont estimés de 17 à 20 µg pour les sujets âgés.
Les chercheurs de l’Université du Colorado ont suivi 107 adultes âgés répartis au hasard pour recevoir une dose élevée ou standard de vitamine D pendant une période de 12 mois. À la fin de la période de suivi, les chercheurs constatent une réduction de 40 % de l’incidence des incidents respiratoires aigus (IRA), principalement la toux et le rhume, chez les personnes ayant reçu la dose élevée.
Article rédigé par Georges Simmonds pour RT Flash
JAGS
|
|
|
|
|
|
|
|
Selon une étude américaine dirigée par Peter T. Campbell, l'indice de masse corporelle (IMC), le tour de taille et le diabète de type de 2 sont tous trois associés à un risque accru de développer un cancer du foie. Pour parvenir à cette conclusion, les auteurs ont analysé les données de quatorze études prospectives, réunissant au total plus de 1,5 million de personnes.
Après ajustement de l'âge, du sexe, de l’origine ethnique, de la consommation d'alcool et de tabac, ils ont constaté que l'excès de poids augmentait le risque relatif de développer un cancer du foie entre 21 % et 142 %. Par ailleurs, ils ont noté chez les patients souffrant d’un diabète de type 2, y compris chez ceux n’étant pas obèses, un risque multiplié par deux de développer cette pathologie. Pour chaque augmentation de deux pouces (soit 5,08 cm) du tour de taille, le risque augmentait de 8 %.
Pour un des auteurs, cette étude souligne que l'accroissement de l'obésité va de pair avec celle des taux de cancer du foie dans le pays. Le cancer du foie est le sixième cancer le plus courant. Son incidence a triplé depuis le milieu des années 1970, aux États-Unis.
Article rédigé par Georges Simmonds pour RT Flash
Medscape
|
|
|
|
|
|
|
|
En ayant recours à l'optogénétique, des chercheurs de l’Université américaine de Stanford ont réussi à contrôler le cerveau d’une souris à distance et ainsi lui faire faire certains mouvements. Ce nouvel outil permet de rendre les neurones d’un sujet sensibles à la lumière en associant génétique et optique. Il devient alors possible de stimuler certaines cellules et d’en laisser d’autres intactes.
Habituellement, les scientifiques utilisent d’autres stimulations pour avoir une influence sur le comportement des souris de laboratoire : la nourriture ou des souffles d’air. Ici les chercheurs ont utilisé un signal de lumière rattaché à un appareil de la taille d’un grain de poivre greffé au cerveau de la souris.
Une fois activé à distance, l’appareil allume une lumière bleue qui active des cellules du cerveau génétiquement modifiées dans le cortex prémoteur. Cela a pour effet d’engager un mouvement précis chez la souris. Cette application peut sembler barbare, mais elle apporte la preuve que l’on peut utiliser l’optogénétique à des fins médicales. Arriver à activer certaines cellules ou non peut permettre d’arriver sur des découvertes concrètes du fonctionnement des systèmes nerveux.
Sur l’Homme, cela permettrait d’utiliser des stimulations lumineuses pour identifier et réparer des mauvaises connexions. Avoir les fils qui se touchent prend ici tout son sens. Blague à part, on pourrait trouver un moyen d’avoir un impact positif sur les maladies neurodégénératives dont les plus connues sont Parkinson, Huntington, ou encore Alzheimer.
Article rédigé par Georges Simmonds pour RT Flash
Spectrum
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Louvain (Belgique) ont découvert que les méninges, cette membrane qui enveloppe le système nerveux central, pouvait produire de nouveaux neurones.
Jusqu’ici, les méninges n’avaient qu’un rôle supposé : protéger le cerveau des chocs mécaniques qui peuvent survenir. En réalité, cette enveloppe contient de nombreuses cellules souches capables de se transformer, si nécessaire, en neurones fonctionnels. « Les cellules souches neuronales que nous avons découvertes dans les méninges se différencient pour devenir des neurones complets, actifs sur le plan électrique et intégrés dans le circuit neuronal de manière fonctionnelle », précise le Professeur Peter Carmeliet, qui signe ces travaux.
Cette découverte a été rendue possible par une technique de séquençage très fin de l’ARN. Il permet d’identifier la nature exacte des cellules examinées. C’est ainsi que les chercheurs ont pu conclure sur l’origine méningée des neurones en question. Un élément enthousiasmant en soi, d’autant plus que des applications thérapeutiques sont possibles.
En ligne de mire : les maladies neurodégénératives. « La question est de savoir si ces cellules souches neuronales des méninges pourront mener à des traitements plus efficaces des dommages cérébraux et de la neuro-dégénérescence », s'interroge Peter Carmeliet, qui imagine déjà utiliser le potentiel de ces cellules souches pour réparer les neurones endommagés par la maladie.
Article rédigé par Georges Simmonds pour RT Flash
Cell
|
|
|
|
|
|
|
|
Malgré les avancées dans le traitements du diabète, les patients ne peuvent pas se passer de leurs injections quotidiennes d’insuline. Ce traitement lourd mais indispensable permet de compenser le défaut de production de cette hormone, en raison de la destruction des cellules du pancréas qui la sécrètent, appelées cellules bêta pancréatiques.
Restaurer cette production en freinant ou en régénérant ces cellules est un enjeu majeur de la recherche. Des chercheurs français de l’Inserm ont réussi à recréer ces cellules chez la souris et partiellement chez l’homme. L’équipe de Patrick Collombat de l’unité 1091 "Institut de biologie Valrose" (Inserm/CNRS/Université de Nice Sophia Antipolis) a déjà montré lors de travaux précédents qu’il était possible de produire des cellules bêta en modifiant génétiquement des cellules très similaires, appelées cellules alpha.
Ces cellules ont la particularité de se régénérer en permanence. Une caractéristique conservée lorsqu’elles ont été converties en cellules bêta et ce qui permet d’obtenir une quantité importante de cellules productrices d'insuline. Mais les chercheurs se sont attachés à trouver une molécule capable de reproduire cette transformation sans avoir besoin d’agir sur les gènes. « Notre première avancée était importante, mais il n'était pas possible d'agir de cette manière sur le patrimoine génétique d'un être humain », explique ainsi Patrick Collombat, directeur de recherche Inserm.
Après avoir testé plusieurs molécules-candidates, les chercheurs démontrent que le GABA, un neurotransmetteur naturellement présent dans l’organisme mais aussi disponible dans des compléments alimentaires, peut induire la transformation de cellules alpha en cellules bêta. Injectées dans le pancréas de souris, ces cellules bêta s’avèrent fonctionnelles et se régénèrent de façon contrôlée. Elles ont même pu soigner le diabète chez des souris génétiquement modifiées.
Par ailleurs, en laboratoire sur des îlots de Langerhans humains (un groupe de cellules alpha et bêta), les chercheurs ont observé qu’en 14 jours de culture avec du GABA, le nombre de cellules alpha a diminué de 37 % au profit d’une hausse de 24 % des cellules bêta productrice d’insuline.
Mieux, la supplémentation de l’alimentation en GABA semble induire les mêmes résultats chez l’animal que ceux obtenus en laboratoire. Les scientifiques ont en effet observé la régénération de cellules bêta humaines chez des souris supplémentées en GABA et chez qui 500 îlots de Langerhans humains avaient été transplantés.
Pour les chercheurs, ces résultats prometteurs ouvrent la voie à une piste thérapeutique sérieuse. Des essais cliniques devraient ainsi être prochainement initiés afin de déterminer si le GABA est une solution efficace pour les patients souffrant de diabète de type 1.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Selon une étude mexicaine réalisée par le Docteur Pilar Dies-Suarez, l'apprentissage de la musique crée de nouvelles connexions dans le cerveau des enfants. Faire donner des leçons de musique peut donc bien être bénéfique au développement de l’Enfant et tout particulièrement aux enfants atteints de trouble du spectre autistique (TSA) ou du déficit de l’attention avec hyperactivité (TDAH).
Au cours de la vie, la maturation des voies cérébrales et des connexions entre les zones motrice, auditive et autres permettent le développement de nombreuses capacités cognitives, y compris les compétences musicales. On sait aussi que l’enseignement musical est bénéfique pour les enfants souffrant de troubles neurologiques, souligne le Docteur Pilar Dies-Suarez, radiologue en chef à l’Hôpital pédiatrique Federico Gómez (Mexico).
Rappelons cette étude publiée dans PLoS ONE qui révèle une fonction cérébrale exécutive plus performante chez les enfants et les adultes ayant une formation et une pratique musicales. Ou encore cette étude de l’Université du Vermont qui confirme, IRM à l’appui, les bénéfices de la musique sur le cortex des enfants. Jouer du violon ou du piano pourrait ainsi aller bien au-delà du "simple apprentissage" musical et apporter concentration, attention, self-control et réduction de l’anxiété. Cette nouvelle étude permet de mieux comprendre comment le cerveau évolue avec la musique et où il crée ces nouvelles connexions.
L’équipe a suivi 23 enfants en bonne santé entre les âges de 5 et 6 ans. Tous les enfants étaient droitiers et n’avaient aucun antécédent de troubles sensoriels, perceptifs ou neurologiques. Aucun des enfants n’avait été formé à aucune discipline artistique dans le passé. Les jeunes participants ont passé une évaluation cérébrale par IRM du tenseur de diffusion, une technique qui permet d’identifier de micro changements de structure dans la substance blanche du cerveau.
La substance blanche du cerveau est composée de millions de fibres nerveuses appelées axones qui agissent comme des câbles de communication reliant différentes zones du cerveau. L’imagerie du diffuseur de tension produit une mesure, appelée anisotropie fractionnaire (FA), du mouvement des molécules d’eau extracellulaires le long des axones.
Dans la substance blanche en bonne santé, la direction des molécules d’eau extracellulaires est assez uniforme et les mesures en anisotropie fractionnée relativement élevées. Lorsque le mouvement de l’eau est plus aléatoire, les valeurs de FA diminuent, ce qui suggère des anomalies. L’étude montre que 9 mois de formation musicale sont associés à une augmentation de la mesure en FA et une augmentation des axones dans différentes zones du cerveau, dont le cortex frontal.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
La dernière étude de Juniper Research nous apprend qu'environ 22 millions de véhicules sans conducteur seront en circulation dans le monde en 2025. Les nouveaux services de mobilité en ville seront les premiers adeptes de cette technologie, estime le cabinet américain.
Selon les dernières prévisions du cabinet Juniper Research, la production de véhicules sans chauffeur devrait atteindre 14,5 millions d’unités en 2025, contre seulement quelques milliers en 2020. Au total, près de 22 millions de véhicules autonomes devraient circuler dans le monde en 2025, soit un peu moins de 2 % du parc mondial de voitures.
L’étude, intitulée Autonomous Véhicules & ADAS : Adoption, Regulation & Business Models 2016-2025, estime que l’adoption des technologies du véhicule autonome repose sur trois leviers : les spécifications de sécurité du véhicule de plus en plus strictes, les pressions environnementales et les rapides développements technologiques.
Juniper Research estime, par ailleurs, que les premiers adeptes des véhicules autonomes seront les nouveaux services de mobilité en ville, comme Uber, Lyft ou encore Didi Chuxing par exemple. Un point de vue partagé par le cabinet Roland Berger, qui prédisait dans sa dernière étude un avènement des robocabs en 2025. Ainsi, d’après le cabinet de conseil allemand, les robocabs représenteront 26 % des déplacements en 2030.
« L’introduction des véhicules sans conducteur entraînera des changements fondamentaux dans le monde automobile et dans la société en général. Et il est clair que les frontières entre la propriété de véhicules privés, les services de partage de véhicules et les flottes de véhicules en location seront de plus en plus floues » indique Gareth Owen, auteur de l'étude.
Article rédigé par Georges Simmonds pour RT Flash
Juniper Research
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|