|
|
Edito
Les robots ne vont pas supprimer le travail mais le transformer…
La machine et le progrès technique vont-ils remplacer l’homme et lui prendre son travail ? Si cette question semble au cœur de l’actualité et s’est même invitée dans le débat politique à l’occasion de la campagne pour les élections présidentielles, elle est en réalité aussi vieille que notre civilisation. Il y a vingt-cinq siècles, Aristote craignait déjà que l’usage généralisé de la force animale finisse par ruiner l’économie grecque en condamnant à l’inactivité de nombreux travailleurs et artisans. Depuis l’Antiquité, ce débat n’a jamais cessé et il y a deux siècles, la révolte des canuts à Lyon avait conduit à la destruction des métiers à tisser Jacquard qui avaient permis un gain considérable de productivité et mis de nombreux tisserands au chômage.
Depuis cet épisode tragique, le monde a connu cinq révolutions énergétiques (vapeur, pétrole, électricité, nucléaire et énergies renouvelables) et autant de révolutions informationnelles (téléphone, radio, télévision, informatique et Internet). Chacune de ces vagues technologiques a bouleversé nos économies et nos sociétés, entraînant, dans un premier temps, la destruction de millions d’emplois traditionnels et parfois la fin de secteurs entiers d’activité. Mais à chaque fois, dans une seconde phase, ces sauts technologiques majeurs ont permis la création d’une multitude de biens et services nouveaux qui ont eux-mêmes généré un nombre de nouveaux emplois finalement plus important que ceux initialement détruits !
En 2013, une étude conduite par deux chercheurs américains, Carl Benedikt Frey et Michael Osborne, avait fait sensation en concluant que 47 % des emplois aux Etats-Unis étaient automatisables ou le seraient d'ici à dix ou vingt ans. En 2014, le cabinet Roland Berger évoquait pour sa part 42 % d'emplois menacés en France.
Il n’en fallait pas plus pour que les média s’emballent et que fleurissent dans la presse et sur le Net dossiers, articles et émissions nous expliquant que l’homme était cette fois condamné à être partout remplacé par des robots et qu’il fallait se résigner et se préparer à la « fin du travail » qui deviendrait de plus en plus rare et difficile d’accès.
Mais ni l’économie, ni la prospective ne sont des sciences exactes et plusieurs études récentes sont venues remettre en cause ces prévisions péremptoires. Il y a d’abord eu la note d'analyse publiée mi-juillet par France Stratégie (Voir France Stratégie). Selon cet organisme de réflexion prospective rattaché à Matignon, seuls 15 % des emplois hexagonaux (3,4 millions de postes) seraient réellement automatisables» (25 % des emplois de service et 15 % des emplois industriels), c'est-à-dire, selon la méthodologie retenue par cette étude, « soumis à un rythme de travail qui n'est pas imposé par la satisfaction immédiate de la demande des clients ».
Si les prévisions sont aussi divergentes entre ces études, c’est parce que l'étude Osborne, comme l’étude Berger, raisonnait par profession automatisable, considérant chaque métier comme un tout homogène. De manière plus fine, France Stratégie propose pour sa part une analyse non par profession, mais en se focalisant sur les différentes tâches composant ces métiers. Et là, les conclusions deviennent très différentes car France Stratégie souligne que « de plus en plus d'emplois apparaissent peu automatisables en France en raison des interactions sociales et de l'adaptabilité qu'ils requièrent ». Ces emplois réfractaires à une automatisation intégrale seraient plus de 9 millions selon cette étude et auraient augmenté d’un tiers depuis 15 ans.
A contrario et prenant le contrepied de nombreuses idées reçues, l’étude montre qu’en France, le nombre d’emplois automatisables a diminué de 200.000 en quinze ans. Ce surprenant constat s’expliquerait par un processus d'adaptation continuelle du contenu des emplois aux évolutions technologiques. Concrètement, cela veut dire que les métiers se recentrent sur des tâches non automatisables, à plus forte valeur ajoutée et requérant des compétences relationnelles et sociales.
La mutation du secteur bancaire illustre parfaitement ce recentrage vers l’humain. La Royal Bank of Scotland a par exemple fait le choix d’utiliser le système d’intelligence artificielle d’IBM Watson pour rendre plus performants ses centres d’appel. Cet établissement a récemment ouvert un chatbot, baptisé « Luvo », qui parvient déjà à répondre de manière complétement autonome à 10 % des appels de la clientèle. Mais ce n’est qu’un début car, comme Watson est capable d’apprendre et d’enrichir sans cesse ses compétences, la banque estime que d’ici 5 ans, le système pourra traiter seul 80 % des demandes des clients. Résultat : les téléconseillers pourront se concentrer uniquement sur les requêtes à forte valeur ajoutée.
L'analyse de France Stratégie vient ainsi conforter les résultats d'une étude publiée mi-mai par l'OCDE qui concluait qu’en France, seul un emploi sur dix avait un risque élevé d'automatisation. Ces deux organismes soulignent également que le lien entre technologie et automatisation est bien plus complexe qu’on ne l’imagine. De nombreux emplois sont techniquement automatisables depuis des années et pourtant ils restent exercés par des humains pour de multiples raisons, meilleure rentabilité économique, acceptabilité sociale, etc. Il peut être en effet plus profitable, in fine, pour une entreprise de garder des employés humains pour remplir certaines tâches. C’est le cas par exemple pour les caissières de magasins, une fonction qui reste essentiellement assurée par des êtres humains, alors que depuis plus de 10 ans, il serait techniquement possible d’automatiser entièrement ce métier.
Il faut également rappeler que, si l’on parle abondamment des emplois détruits par la révolution numérique et robotique, on parle beaucoup moins des créations d’emplois nouveaux que permet cette même révolution, sans doute à cause du décalage dans le temps entre ces deux phénomènes. Certains, par exemple, se lamentent du fait que le numérique ait entraîné une diminution considérable du nombre de secrétaires depuis 25 ans. Mais ils oublient de dire, qu’au cours de la même période, plus de 300 000 postes d’ingénieurs en informatique et en télécoms ont été créés et que ces travailleurs hautement qualifiés sont aujourd’hui, en France, plus nombreux que les secrétaires…
Le rapport publié il y a un peu plus d'un mois par le Conseil d’orientation pour l’emploi (COE) va dans le même sens que ceux de France Stratégie et de l’OCDE et considère que « seule une faible part des emplois a un indice d’automatisation élevé ». Cette étude souligne toutefois que la vague numérique va transformer l’ensemble des métiers, y compris ceux qui requièrent un bon niveau d’études supérieures. Selon le COE, à terme, c’est plus de la moitié des emplois qui sont amenés à évoluer radicalement sous l’effet de l’intelligence artificielle et de l’automatisation. Ce rapport souligne également que, sur les 149 nouveaux métiers apparus depuis 2010, 105 appartiennent au domaine du numérique, ce qui confirme la théorie de la « destruction créatrice » selon laquelle les ruptures technologiques majeurs, si elles commencent par détruire massivement des emplois, finissent toujours par créer de nouvelles activités et de nouveaux métiers en quantité au moins égale à ceux détruits.
Les dernières recherches de l’OCDE soulignent également un autre point essentiel et montrent que, contrairement à l’hypothèse de l’étude d’Oxford, qui repose sur une extrapolation par catégorie de métiers, le contenu précis d’un métier peut considérablement varier d’une entreprise à l’autre, en fonction notamment de la culture managériale et de l’environnement local. Or, si l’on tient compte de ces facteurs, ce ne serait plus la moitié des emplois qui seraient menacés par le numérique et les robots, comme le prédit l’étude d’Oxford, mais à peine un emploi sur dix, ce qui change évidemment les perspectives…
On ne s’en étonnera pas, l’OCDE insiste sur le fait que, d’une manière générale, ce sont les travailleurs les moins instruits qui courent le plus de risque de voir leur emploi supprimé. « Si 40 % des travailleurs avec un niveau inférieur au deuxième cycle du secondaire occupent des emplois ayant un fort risque d’automatisation, moins de 5 % des travailleurs diplômés de l’enseignement universitaire sont dans le même cas », précise sur ce point l’OCDE.
Ce que montrent ces différentes études, c’est que l’avenir n’est pas écrit et que le scénario de la fin du travail et d’un chômage massif qui seraient des conséquences inévitables des révolutions technologiques en cours, n’est en aucun cas inéluctable. Les travaux de l’OCDE ont d’ailleurs bien montré que chaque emploi créé dans le secteur de la haute technologie entraîne la création de cinq emplois supplémentaires.
Quant à ceux qui opposent systématiquement robot et emploi, ils devraient méditer l’exemple du cuisiniste Schmidt. Cette entreprise qui a toujours maintenu ses usines en France a opté pour une l'automatisation poussée. Dans chacune de ses usines, les ouvriers ont été remplacés par des robots et deux agents très qualifiés suffisent à faire tourner chaque unité de production. Et le résultat est plutôt probant, puisque Schmidt parvient à présent à produire une cuisine sur mesure en une demi-journée, contre une semaine auparavant. Devenue ainsi plus rentable, plus productive et plus compétitive, mais également plus souple et mieux à même de répondre aux demandes personnalisées de ses clients, Schmidt a pu multiplier par trois ses effectifs et recrute une centaine de collaborateurs chaque année.
Denis Pennel, directeur général de la « World Employment Confederation » à Bruxelles ne croit pas non plus à cette théorie en vogue d’une raréfaction inévitable du travail. Il souligne que l’automatisation transforme en profondeur les emplois et modes de production mais que la substitution des emplois par les machines a historiquement toujours été compensée par la croissance de la production et l’invention de nouveaux biens et services.
Si l’on observe, depuis le début de la révolution industrielle, l’évolution des conséquences de la mécanisation, puis de l’automatisation sur les gains de productivité, on constate que ces derniers ont surtout réduit le temps de travail, qui ne représente plus que 10 % de la vie d’un travailleur aujourd’hui, contre plus de 40 % à la veille de la première guerre mondiale. En revanche, la prodigieuse évolution technologique qui va de la machine à vapeur de Watt à l’Internet et aux robots n’a pas empêché un accroissement considérable du nombre d’emplois et une augmentation tout aussi impressionnante de la population active.
Il est intéressant de souligner également que, selon l’OCDE, le ratio PIB par heure travaillée n’a progressé en moyenne annuelle que de seulement 1 % aux Etats-Unis sur les dix dernières années (2004-2014), contre 2,7 % sur la période 1997-2004. La tendance est similaire en Allemagne (0,8 % contre 1,5 %), en France (0,7 % contre 2 %), au Royaume-Uni (0,4 % contre 2,4 %) et au Japon (0,8 % contre 1,9 %).
Toutefois ces gains de productivité moyenne annuelle pourraient sensiblement augmenter, selon le dernier rapport de l’Institut McKinsey, récemment publié. Cette étude estime en effet que robots et automatisation pourraient améliorer considérablement la performance des entreprises et augmenter la productivité à l'échelle mondiale, qui passerait de 1 % à 1,4 % par an d’ici 20 ans (Voir Mc Kinsey & Company). Globalement, ce rapport estime à 49 % la part des activités entièrement automatisables d’ici 2050 mais considère que seuls 5 % des métiers pourront être entièrement automatisés au cours du prochain quart de siècle. L’impact socio-économique de ce processus d’automatisation du travail devrait cependant être à terme considérable et pourrait concerner 54 millions d'équivalents temps plein dans les cinq plus grandes économies européennes : France, Allemagne, Italie, Espagne, et Royaume-Uni. Mais, dans le même temps, les nouvelles technologies numériques vont créer une multitude d’activités et d’emplois nouveaux, en décuplant les possibilités d’offre économique totalement personnalisée.
Contrairement à beaucoup d’idées reçues, les pays qui comptent actuellement le plus fort taux de robotisation par habitant sont aussi ceux qui connaissent le niveau de chômage le plus faible. C’est notamment le cas en Allemagne, en Suisse, en Suède, au Danemark, au Japon et en Corée du Sud. Cette apparente contradiction s’explique en grande partie par le fait que ces pays consacrent des moyens très importants pour dispenser à leurs habitants le meilleur niveau d’éducation et de formation professionnelle possible. Ces états ont également fait le choix de mettre en œuvre des politiques ambitieuses de recherche et d’innovation, y compris dans le temps long de la recherche fondamentale, celle qui n’est pas immédiatement rentable mais finit par provoquer des ruptures technologiques majeures. Enfin, et ce point essentiel est curieusement peu évoqué, ces pays sont également ceux qui proposent à leurs habitants les meilleurs couvertures d’accès à l’Internet à très haut débit, fixe et mobile.
Ce ne sont donc pas les robots, l’intelligence artificielle et les outils numériques qui, intrinsèquement, détruisent des emplois et conduisent à une raréfaction du travail. Mais il est vrai que ces conséquences sociales et humaines très négatives peuvent survenir quand les bouleversements technologiques affectent très rapidement des sociétés qui ne sont pas préparées à les recevoir et n’ont pas anticipé ces ruptures en actionnant simultanément quatre leviers puissants et indissociables : une éducation de très haut niveau pour tous, une offre riche et adaptée de formation professionnelle individualisée tout au long de la vie, un effort suffisant d’innovation et de recherche fondamentale à long terme et enfin un accès pour tous à l’Internet à très haut débit.
Je suis persuadé que si nous nous donnons les moyens de construire ce cadre gagnant, nous cesserons de voir les révolutions technologiques actuelles comme des mouvements déstabilisateurs que nous devons subir et redouter, en espérant que nous garderons la tête hors de l’eau, et nous verrons au contraire tout l’immense potentiel d’épanouissement individuel et de production de richesse collective que constituent ces sauts technologiques, en termes de création d’activités nouvelles et d’emplois à la fois plus nombreux, plus riches et plus variés que ceux du passé.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Après un traumatisme ou un accident vasculaire, des patients peuvent développer le locked-in syndrome (LIS). Cette maladie neurologique très rare les emprisonne dans leur propre corps. Ils sont conscients de ce qui se passe autour d’eux mais ils ne peuvent pas interagir avec le monde extérieur, excepté par des mouvements des yeux ou un clignement des paupières.
Mais ce mode de communication pourrait être bouleversé par la découverte d’une équipe du Centre de neuro-ingénierie Wiss (Suisse) qui a mis mis au point une interface cerveau-machine non invasive capable de déchiffrer les pensées de ces patients paralysés. Celle-ci fonctionne grâce à des électrodes placées sur le crâne mesurant le taux d’oxygène dans le cerveau. Ces informations sont ensuite envoyées à un ordinateur chargé de les traduire.
Pour tester leur interface, les scientifiques ont sélectionné 4 personnes souffrant de sclérose latérale amyotrophique, plus connue sous le nom de maladie de Charcot ou maladie de Lou Gherig. Ces volontaires souffraient d’un locked-in syndrome sévère puisqu’ils ne pouvaient pas communiquer avec les yeux.
Mais grâce à l’invention des ingénieurs, ces volontaires ont pu répondre "oui" ou "non" à des questions personnelles telles que « Votre mari s’appelle Joachim ? » ou « Votre mère s’appelle Gargit ? ». Dans 70 % des cas, ils ont réussi à obtenir une réponse. Interrogée par son mari pour qu'elle donne sa bénédiction aux fiançailles de sa fille, une des participantes a répété 9 fois qu'elle était contre, ont également précisé les auteurs.
"Ces résultats remarquables ont chamboulé ma propre théorie selon laquelle les patients souffrant d’un LIS complet sont incapables de communiquer", a confié le Professeur Niels Birbaumer, neuroscientifique et auteur de l’étude. "Nous avons constaté que les 4 patients ont pu répondre à ces questions en utilisant uniquement leurs pensées. Si nous sommes capables de répliquer ces résultats chez un plus grand nombre de malades, je crois que nous pourrions restaurer des capacités de communication chez ces malades".
Article rédigé par Georges Simmonds pour RT Flash
Plos
|
|
|
|
|
|
|
|
Le Laboratoire d'analyse et d'architecture des systèmes (LAAS) du CNRS a mis au point PYRENE, un étonnant robot humanoïde conçu pour mieux interagir avec son environnement et effectuer des tâches qui nécessitent une certaine force physique. Ses impressionnantes capacités en termes de calcul, d'actionnement et de perception, lui permettront d'exécuter tout un ensemble de tâches qui n'étaient pas réalisables avec la génération précédente de robots humanoïdes. Ce nouveau robot dispose d'une électronique puissante et de capteurs d'efforts au niveau de ses articulations.
Actuellement, le robot est capable d'effectuer des mouvements de base incluant la marche. D'ici quelques mois, lorsque la programmation sera plus avancée, la plate-forme PYRENE permettra de réaliser des tâches complexes telles que la locomotion sur des terrains accidentés, et plus seulement sur des sols plats, ou l'interaction en toute sécurité avec les êtres humains. Des tâches nécessitant une forte puissance, comme le port de lourdes charges à bout de bras, pourront également être réalisées, ce que les plates-formes existantes ne peuvent effectuer à l'heure actuelle.
PYRENE est un outil essentiel pour contribuer à l'étude du mouvement du corps anthropomorphe, dans le but d'aider l'Homme dans l'exécution de tâches difficiles dans des contextes divers.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Floride Centre viennent de mettre au point une batterie aux propriétés particulièrement innovantes. Non seulement cette batterie peut durer plusieurs jours et offrir une autonomie inégalée à votre terminal mobile, mais en plus, elle ne demande que quelques secondes de mise sous tension pour se charger.
Comme il s’agit d’un prototype expérimental, elle ne sera pas encore commercialisée avec les prochains téléphones. Cependant, elle tient déjà toutes ses promesses puisque le procédé attire l’attention des fabricants de terminaux mobiles pour pouvoir l’adapter à une production à grande échelle. Le vrai défi est donc de trouver la version commerciale à prix réduit qui permettra de la produire en masse pour équiper les téléphones de nouvelle génération.
Cette batterie sera capable de stocker de l’énergie de manière statique en surface. Elle fonctionnera donc très différemment des batteries lithium-ion actuelles qui sont basées sur des réactions chimiques et qui sont actuellement au cœur de la polémique (des cas d’explosion ont été répertoriés).
Les propriétés du graphène ont été exploitées pour développer une nanostructure complexe et permettre une charge pouvant durer jusqu’à une semaine d’utilisation. Et cerise sur le gâteau, elle aura également une durée de vie plus longue puisqu’elle pourra recevoir jusqu’à 30 000 cycles de charge contrairement, soit toute une décennie d’utilisation. En outre, la batterie sera de plus en plus fine. Elle sera pratiquement de l’épaisseur d’une fine feuille de métal.
Article rédigé par Georges Simmonds pour RT Flash
Engadget
|
|
|
|
|
|
|
|
Des physiciens de l'Institut Néel (CNRS), en collaboration avec des chercheurs japonais et allemands, ont conçu et réalisé un dispositif permettant de transférer l'information stockée sur le spin d'un électron unique entre deux boîtes quantiques distantes de 4 microns.
Pour parvenir à ce résultat, les chercheurs ont réalisé un canal vide d'électron entre deux boîtes semi-conductrices et propulsé dans ce canal l'électron stocké dans l'une des deux boîtes à l'aide d'une onde acoustique de surface. La durée de transfert, de l'ordre la nanoseconde, est alors assez rapide pour que l'information portée par l'électron ne soit pas détruite par les mécanismes de décohérence.
Pour réaliser leurs boîtes quantiques, les chercheurs ont déposé de fines grilles d'or à la surface d'une couche d'arséniure de gallium et d'aluminium (AlGaAs) déposée sur un substrat d'arséniure de gallium (GaAs). Ils piègent ainsi des électrons se déplaçant librement à l'interface entre les deux matériaux semi-conducteurs à l'aide du potentiel électrostatique créé par les grilles. Ce dispositif leur permet aussi de réaliser in situ un électromètre qui leur permet de mesurer simultanément la présence d'un électron dans la boîte et son état de spin.
En répétant cette procédure une dizaine de milliers de fois, les physiciens ont quantifié la fidélité du transfert d'information. Celle-ci approche actuellement les 65 %. Elle est limitée pour l'instant par des processus de dépolarisation de spin principalement actif au cours l'injection entre boîtes quantiques statiques et en mouvement.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
C'est une découverte tout à fait exceptionnelle que vient d'annoncer la NASA le 22 février dernier : grâce à Spitzer, le télescope spatial de la Nasa, l’équipe de Michaël Gillon (Université de Liège) a pu observer pendant trois semaines, à l’automne 2016, sept exoplanètes qui orbitent autour d’une "naine rouge", une étoile plus petite et plus froide que notre Soleil située à seulement 40 années-lumière de la Terre. Trois de ces planètes, qui ont la taille de la Terre, pourraient abriter de l’eau sous forme liquide à leur surface.
« À présent, nous avons la bonne cible » pour rechercher la présence de vie éventuelle sur des exoplanètes, a déclaré Amaury Triaud, de l'Université de Cambridge, coauteur de l'étude. Les sept planètes, qui pourraient avoir des températures assez proches de celles de la Terre, tournent autour d'une toute petite étoile peu lumineuse et ultra-froide, TRAPPIST-1, située dans notre galaxie, à "seulement" 40 années-lumière de nous.
« Vingt ans après les premières exoplanètes, il s'agit sans nul doute d'une des plus grandes découvertes dans le domaine des planètes extrasolaires », estime Didier Queloz, de l'Université de Genève, coauteur de l'étude. L'équipe internationale, dirigée par l'astronome belge Michaël Gillon de l'Université de Liège, avait déjà découvert fin 2015 trois de ces planètes à partir du petit télescope TRAPPIST de l'ESO (Observatoire européen austral) basé au Chili.
« C'est la première fois que l'on détecte autant de planètes de taille terrestre, dont trois potentiellement habitables, pour lesquelles une étude poussée est possible avec la technologie actuelle, y compris la détermination de la composition atmosphérique et la recherche de traces chimiques de vie », précise Michaël Gillon, principal auteur de l'étude. Le système planétaire a été détecté grâce à la méthode des transits. Elle permet de repérer la présence d'une planète lorsque celle-ci passe devant le disque de son étoile, car cela provoque une légère baisse de la luminosité (appelée transit).
« Ce qui est surprenant, c'est que les sept planètes ont une grande régularité en taille », souligne Franck Selsis, chercheur CNRS à l'Université de Bordeaux, et coauteur de l'étude. Leur rayon est plus ou moins 15 % celui de la Terre. Elles ont des insolations et donc des températures moyennes proches de celles de la Terre. Six de ces planètes tournent autour de la naine rouge en 1,5 à 12 jours. Elles sont beaucoup plus proches de leur étoile que la Terre du Soleil. Du fait des forces de marée, elles présentent toujours la même face à leur étoile.
Trois des planètes (TRAPPIST-1 e, f et g) se trouvent dans la zone "habitable" du système, c'est-à-dire susceptible d'abriter de l'eau liquide sur la majeure partie de la surface. « C'est le Graal pour les astronomes », souligne l'ESO. « L'eau liquide est un pré-requis à l'existence de la vie », même si cela n'est pas une condition suffisante, car il faut aussi « la présence des bonnes molécules », rappelle Franck Selsis.
Grâce au contraste de taille favorable entre les planètes et leur petite étoile, ces chercheurs vont pouvoir mesurer leur atmosphère avec le télescope spatial James Webb qui sera lancé par la Nasa en 2018. "Ce nouvel outil va nous permettre de caractériser les propriétés des atmosphères de ces planètes et peut-être même de trouver des biomarqueurs, c'est-à-dire des molécules comme l'eau, l'ozone, le gaz carbonique, le méthane, qui pourraient indiquer qu'il y a de la vie sur ces planètes", précise Michaël Gillon.
Depuis 1996, date de la découverte de la première exoplanète, près de 5000 exoplanètes ont été découvertes et les scientifiques estiment qu'il y aurait au bas mot un milliard de planètes dans notre galaxie qui seraient en orbite dans la zone dite "habitable", c’est-à-dire ni trop proche, ni trop lointaine de leur étoile, ce qui permettrait à ces planètes de réunir les conditions rendant possible l'apparition de la vie…
Article rédigé par Georges Simmonds pour RT Flash
NASA
|
|
|
|
|
|
|
|
Une équipe de recherche, conduite par l'EPFL de Lausanne et le Max Planck Institute, a procédé à une nouvelle mesure de la fameuse Constante de Hubble, qui indique la vitesse de l'expansion de l'Univers. Cette nouvelle mesure remet en cause certaines des mesures les plus récentes et pointe potentiellement vers une nouvelle physique, au-delà du Modèle Cosmologique Standard.
Pouvoir mesurer à quelle distance des objets se situent dans l'espace a conduit à de grandes découvertes, par exemple celle que notre Univers est en expansion. La vitesse d'expansion est déterminée par le Modèle Cosmologique Standard en vigueur, "Lambda CDM", qui fixe la vitesse d'expansion actuelle à environ 72 km par seconde par mégaparsec (un mégaparsec représente environ 3,3 millions d'années-lumière).
Cette vitesse est appelée "Constante de Hubble", et a été constamment affinée pendant près d'un siècle : une mesure de haute précision de H0 a des implications profondes, autant en cosmologie qu'en physique. Grâce à de nouveaux outils, ces travaux ont permis de calculer de manière indépendante la très importante Constante de Hubble avec une précision de 3,8 %. Le nouveau chiffre correspond à celui d'études récentes, qui cependant sont en contradiction avec les prédictions du Modèle Cosmologique Standard, et pointent vers une nouvelle physique.
L'expansion de l'Univers, qui se fonde sur l'idée que l'Univers est né avec le Big Bang, a été suggérée pour la première fois par le cosmologiste belge Georges Lemaître. A peu près en même temps, à la fin des années 1920, l'astronome Edwin Hubble étudiait des galaxies qui s'éloignaient de la Voie Lactée ; il remarqua que les plus éloignées de la Terre semblaient se déplacer plus rapidement. Ce qu'il observait en réalité, c'était l'Univers en expansion, et il s'attacha à calculer son taux d'expansion. Les observations de Hubble ont conduit à une constante qui quantifie cette expansion, et qui sera appelée plus tard la "Constante de Hubble".
Cette équipe est parvenue à mesurer la Constante de Hubble de manière indépendante, en exploitant un phénomène cosmique appelé "lentilles gravitationnelles", dans lequel la masse énorme des galaxies courbe l'espace-temps. Les galaxies agissent alors comme des lentilles qui peuvent agrandir et déformer l'image normalement diffuse d'objets situés plus loin.
Elles peuvent aussi produire plusieurs images des objets originaux "lentillés", et les faire apparaître multiples. Pour mesurer la Constante de Hubble, les scientifiques ont étudié la lumière en provenance de cinq quasars vus de manière démultipliée en raison de l'effet de lentille gravitationnelle produit par des galaxies situées à l'avant-plan.
Les quasars sont des trous noirs supermassifs au centre de galaxies, qui émettent de gigantesques quantités d'énergie électromagnétique. La magnitude des quasars présente des variations aléatoires au fil des ans, dont il résulte une oscillation apparente de leur intensité. Cette oscillation est vue de manière décalée dans chaque lentille gravitationnelle, parce que la lumière emprunte des chemins différents dans chaque image. Par conséquent, le fait de mesurer le décalage temporel entre les lentilles gravitationnelles offre un moyen de déterminer la Constante de Hubble.
Avec cette technique, la Constante de Hubble a été mesurée avec une précision de 3,8 % dans le cadre du Modèle Cosmologique Standard. Cette mesure est indépendante des autres méthodes, les trois lentilles gravitationnelles consistant en elles-mêmes en une sonde cosmologique ne se fondant sur aucune autre mesure. Ces résultats confirment les limites du modèle standard et confortent l'existence de l'énergie sombre qui accélère l'expansion de l'Univers.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Selon une étude conduite par des chercheurs italiens, américains et anglais, notre personnalité serait liée à l'anatomie de notre cerveau. Ces scientifiques ont examiné des données d'imagerie cérébrale collectées chez plus de 500 individus jeunes et en bonne santé. A l'aide du modèle des "Big Five", utilisé en psychologie, ils ont également évalué leur degré de névrosisme (changements d'humeur), d'extraversion (enthousiasme), d'ouverture d'esprit, d'amabilité et de conscience (capacité de se percevoir et se comporter de manière adaptée).
En croisant ces données, les scientifiques sont arrivés à la conclusion que chacun de ces traits de personnalité pouvait être associé à un ensemble de trois caractéristiques du cortex cérébral (la matière grise qui entoure notre cerveau) : son épaisseur, sa surface et ses plissures.
Les personnes névrosées auraient par exemple tendance à avoir un cortex plus fin, moins plissé et d'une surface plus petite dans les régions préfrontales. Les personnes plus curieuses, créatives, avec une préférence pour la nouveauté (ou "ouvertes") auraient à l'inverse une surface plus importante et davantage de plissures dans ces régions.
"Elément intéressant, beaucoup de ces variations sont localisées dans le cortex préfrontal, un ensemble de régions du cerveau ayant connu une évolution significative chez les êtres humains et les singes en comparaison des autres espèces", note l'étude.
"L'évolution a adapté l'anatomie de notre cerveau de façon à maximiser sa surface et ses plissures aux dépens de l'épaisseur du cortex", "comme si on étirait puis compressait une feuille de caoutchouc", illustre l'un des auteurs, Luca Passamonti. Ce processus d'"étirement du cortex" se reproduit également au cours de la vie. "L'épaisseur du cortex tend à décroître tandis que la surface et les plissures augmentent", explique-t-il. Notre personnalité serait donc liée, dans une certaine mesure, à la maturation de notre cerveau, selon l'étude.
Ces découvertes ouvrent de nouvelles perspectives à la compréhension et au traitement des maladies neuropsychiatriques dès le plus jeune âge. Dans le cas d'un individu malade, il est en effet probable que ces différences structurelles soient encore plus prononcées.
Article rédigé par Georges Simmonds pour RT Flash
S.C.A.N.
|
|
|
|
|
|
|
|
Deux algues sont revenues en relativement bonne santé d’un voyage de deux ans dans l'Espace (dans la Station spatiale internationale) puis d'un séjour de 16 mois à l’extérieur, seulement protégées du vide par un filtre neutre réduisant les effets des radiations.
Ces deux souches sont revenues sur Terre le 18 juillet 2016 par une capsule Soyouz. Les chercheurs ont mis plusieurs mois pour vérifier qu’elles reprenaient bien leur croissance. Et le résultat –incroyable– vient juste de tomber. Les fonctions vitales sont bien reparties. Mais les chercheurs ne veulent pas seulement savoir si les algues peuvent survivre en orbitre terrestre. Ils s’intéressent aussi à la réponse des cellules dans le vide aux rayonnements UVA, UVB et UVC.
"Nous nous attendions à ce que les organismes survivent au vide et aux températures fluctuant entre -20°C et +50°C aussi bien qu’aux rayonnements UVA et UVB, explique Thomas Leya. Mais nous avons été surpris de voir que les souches algales sont restées indemnes d’une exposition à des rayonnements UVC extrêmement destructeurs". Les biologistes vont désormais étudier les stratégies d’adaptation des cyanobactéries et des algues vertes. Les rayons UV peuvent en effet endommager l’ADN humain. Aussi est-il intéressant de voir si l’ADN de ces algues a été endommagé, dans quelles régions de l’ADN et dans quelles proportions.
Les retombées de ces recherches sont multiples. L’intérêt le plus évident porte sur l'exploration de Mars. En cas de colonisation de la planète rouge, les algues qu’on imagine pousser dans des serres pourraient produire de la nourriture et de l’oxygène. En sciences de la vie, cette expérience redonne une certaine vigueur à l’hypothèse d’une origine extraterrestre de la vie sur Terre. Mais les sciences appliquées sont aussi concernées. Les composants protecteurs des algues pourraient ainsi être extraits pour des crèmes solaires anti-UV. Et l’industrie agroalimentaire pourrait s’emparer des compléments nutritionnels présents dans ces organismes.
Article rédigé par Georges Simmonds pour RT Flash
Phys.org
|
|
|
|
|
|
|
|
Selon une étude de l’Université de Californie, consommer du raisin deux fois par jour pendant six mois prévient le déclin métabolique que l’on observe dans les parties du cerveau atteintes par la maladie d’Alzheimer.
Ces travaux ont porté sur des personnes atteintes d’un léger déclin cognitif en stade précoce. Le premier groupe a consommé une poudre réalisée à partir de raisins complets, en quantités équivalentes à deux tasses et demi de grappes par jour. Le second groupe, quant à lui, a reçu pour placebo une poudre sans polyphénol, cette molécule organique contenue dans le raisin.
Après six mois de ce régime, les performances cognitives des deux groupes ont été évaluées grâce à des tests et des « scanners PET », méthode d’imagerie qui permet de mesurer l’activité métabolique d’un organe. Les chercheurs ont pu constater un fonctionnement métabolique normal dans la zone cérébrale des participants du premier groupe. Ceux qui appartenaient au second groupe, en revanche, ont manifesté un déclin cognitif caractérisé par une faible activité métabolique de cette zone, suggérant une évolution défavorable de la maladie.
Par ailleurs, le régime enrichi en raisin était associé à des améliorations métaboliques dans une autre région cérébrale impliquée dans la cognition et la mémoire. Les polyphénols du raisin possèdent des propriétés anti-inflammatoires et sont des antioxydants, qui ont un effet protecteur sur le cerveau. La littérature suggère que cet effet est à l’origine d’une réduction du stress oxydatif et d’un meilleur afflux sanguin dans cet organe.
« Cette étude pilote s’ajoute aux travaux démontrant les bénéfices du raisin pour la santé neurologique et cardiovasculaire, même si d’autres études cliniques incluant de plus larges groupes sont nécessaires pour confirmer les résultats que nous avons observés », concluent les chercheurs.
Article rédigé par Georges Simmonds pour RT Flash
Science Direct
|
|
|
|
|
|
|
|
L’asthme est une maladie fréquente qui touche plus de 4 millions de personnes en France. Les premières manifestations de cette inflammation chronique des bronches surviennent le plus souvent pendant l’enfance. De nombreux facteurs de risque comme le tabagisme, l'obésité, la pollution atmosphérique et les symptômes dépressifs et anxieux lui ont été imputés. Et si de nombreux patients asthmatiques ont des troubles du sommeil, le phénomène inverse n'avait jusqu'à présent jamais été étudié.
Une équipe de chercheurs de l'Université norvégienne de sciences et de technologie (NTNU) à Trondheim a décidé d'explorer l'association entre insomnie, définie comme le fait d'avoir des difficultés à trouver ou maintenir son sommeil ou d'avoir un sommeil de mauvaise qualité, et le risque de développer un asthme à l'âge adulte. Pour mener à bien leurs travaux, les scientifiques se sont servis des données d'une enquête norvégienne intitulée HUNT (Nord- Trondelag Health Study) dans laquelle 17 926 participants de 20 à 65 ans avaient été sélectionnés.
Tous ont dû renseigner l'équipe sur leurs problèmes de sommeil (difficultés d'endormissement, réveils nocturnes et mauvaise qualité de sommeil) et sur les symptômes d'asthme, en début et fin d'étude. Et les résultats rapportés sont sans appel. Ils indiquent que les volontaires ayant signalé des difficultés à l'endormissement « souvent » ou « presque chaque nuit » au cours du mois précédent avaient un risque accru respectivement de 65 % et de 108 % de développer un asthme dans les 11 ans à venir.
Par ailleurs, ceux qui indiquaient s'être réveillés en pleine nuit et avoir eu du mal à retrouver le sommeil « souvent »ou « presque tous les soirs » voyaient leur risque augmenté de 92 % et 36 %. S'agissant des patients se plaignant d'avoir un sommeil de mauvaise qualité ou peu réparateur plus d'une fois par semaine, leur risque de développer un asthme s'accroissait de 94 %.
Pour finir, les chercheurs se sont enfin intéressés aux insomniaques chroniques qui avaient fait part d'au moins un signe d'insomnie au début de l'étude, puis 10 ans plus tard. Ils ont découvert que leur risque de devenir asthmatique triplait par rapport à ceux qui n'étaient pas insomniaques.
Article rédigé par Georges Simmonds pour RT Flash
Medscape
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Pennsylvanie (Etats-Unis) ont annoncé que leur vaccin expérimental concernant le virus Zika protège quasiment à 100 % des cobayes de laboratoire en une seule dose. "Nous avons observé une protection immunitaire rapide et durable sans effets secondaires, ce qui nous fait dire que notre vaccin-candidat est une stratégie prometteuse dans la lutte contre le virus Zika", a décrit le Professeur Drew Weissman, infectiologue à l’Université de Pennsylvanie.
Ce nouveau vaccin développé en collaboration avec l’Institut américain de l’allergie et des maladies infectieuses n’a pas été conçu avec un virus atténué comme c’est le cas pour de nombreux autres vaccins anti-Zika en cours de développement. A ce jour, un seul d’entre eux s’est révélé efficace chez l’animal, précisent les auteurs.
Ces derniers ont donc choisi une autre voie en utilisant des fragments du virus porteurs de ses caractéristiques génétiques. Chez la souris, ils ont découvert qu’une seule injection de ces molécules induit une réponse immunitaire efficace. Deux semaines plus tard, les rongeurs ont été exposés au virus Zika, mais aucun n’a présenté de charge virale détectable les jours suivants, une protection maintenue cinq mois après la vaccination. Les tests effectués chez des singes ont aussi montré qu’une seule dose suffit à apporter une protection pendant plusieurs mois.
Dans les deux cas, l’immunisation a provoqué la formation d’une grande quantité d’anticorps dirigés contre le virus Zika. Ce taux semble par ailleurs atteindre son pic à la 7e semaine post-vaccination. "Notre étude suggère que cette nouvelle stratégie vaccinale génère une quantité d’anticorps neutralisants 25 fois plus importante que celle observée avec les autres vaccins", se réjouit le Professeur Weissman qui souligne qu’elle pourrait même se maintenir des années.
"Si le vaccin est efficace après une seule injection, l’infrastructure nécessaire sera beaucoup plus simple. La production de ce type de vaccin est également plus simple et moins chère que celle des vaccins traditionnels", ajoute le spécialiste. L’équipe espère pouvoir lancer des essais cliniques chez l’homme d’ici 12 à 18 mois.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
L’Institut américain des allergies et des maladies infectieuses (NIAID) a présenté des résultats encourageants sur une nouvelle voie thérapeutique prometteuse contre la sclérose en plaques.
L’essai clinique baptisé HALT-MS, porte sur 24 patients et évalue une thérapie par cellules souches sanguines associée à un traitement immunosuppresseur (HDIT/HCT). Il a donné des résultats plus que satisfaisants. Cinq ans après le traitement, la sclérose en plaques ne s’est plus manifestée pour 69 % des patients : pas d’évolution des symptômes, pas de rechute, pas de nouvelles lésions nerveuses… Plus intéressant encore, certains symptômes préexistants ont régressé ; et ces résultats pleins d’espoir ont été obtenus sans aucun traitement supplémentaire.
La thérapie compte trois étapes. Dans un premier temps, des cellules hématopoïétiques sont prélevées chez les patients et cultivées en laboratoire. Ces cellules souches sont à l’origine de toutes les lignées de cellules sanguines : globules rouges, globules blancs et plaquettes. Avant leur réimplantation, les malades subissent une thérapie visant à détériorer leur système immunitaire. Avec l’apport ultérieur de cellules souches, ce dernier est en quelque sorte « réinitialisé ».
Car c’est en effet le système immunitaire qui est responsable de la sclérose en plaque, dite autoimmune. Une altération de son fonctionnement le pousse à attaquer et détruire la gaine de myéline qui entoure les cellules nerveuses. Les voies nerveuses sont alors atteintes et leur capacité à transmettre l’information est altérée, provoquant notamment des troubles de l’équilibre et musculaires qui altèrent la marche, des atteintes oculaires, ou encore des troubles de la sensibilité et des paralysies faciales.
Le traitement a été testé sur des patients souffrant de sclérose en plaques rémittente. Cette forme de la maladie est caractérisée par des poussées, qui peuvent durer quelques semaines, avant de régresser. Elle concerne 85 % des malades.
"Les données suggèrent qu’un traitement unique par HDIT/HCT pourrait être plus efficace que les meilleurs traitements à long terme disponibles pour les patients atteints de ce type de sclérose en plaques", estime le directeur du NIAID, Anthony Fauci. "Ces résultats encourageants soutiennent l’idée du développement d’un grand essai clinique randomisé, qui nous permettrait de comparer ce traitement aux traitements standard de cette maladie souvent invalidante".
Article rédigé par Georges Simmonds pour RT Flash
Neurology
|
|
|
|
|
|
|
|
Une équipe italo-américaine (Université de Trento et Université du Maryland) a développé des cellules artificielles qui peuvent chimiquement communiquer avec les bactéries. Selon ces chercheurs, les bactéries échangent constamment des messages et les “mots” sont des molécules synthétisées par leurs gènes qui s’envolent vers l’extérieur en traversant les membranes cellulaires. Quand ces molécules atteignent une autre bactérie, elles pénètrent leur membrane, atteignent l’ADN et déclenchent l’activation de gènes. Ceux-ci produisent alors des molécules “réponse”, lesquelles entraînent à leur tour l’activation de gènes de la première bactérie et ainsi de suite.
Lorsque les cellules artificielles ont été placées près de trois espèces différentes de bactéries vivantes — E. coli, Vibrio fischeri et Pseudomonas aeruginosa —, ces premières ont commencé à produire des protéines en réponse à ces dernières, suggérant ainsi aux chercheurs qu’elles étaient « à l’écoute » de leurs voisins bactériens. Mais il ne suffit pas simplement « d’écouter » lors d’une conversation.
Si vous souhaitez convaincre une personne que vous êtes tout aussi vivante, vous devez vous engager dans un dialogue. Une fois que les chercheurs ont pu prouver que leurs cellules artificielles avaient été détectées par les bactéries vivantes, ils leur ont donné la possibilité de communiquer avec elles en produisant leurs propres composés chimiques qui pourraient être interprétés par les bactéries.
Ce processus imite ainsi la façon dont les formes de vie simples communiquent entre elles dans la nature, ce qui signifie que nous pourrions théoriquement créer des cellules qui agissent comme médiateurs pour les organismes qui ont des problèmes de connexion : « ces cellules artificielles peuvent détecter les molécules qui sont naturellement sécrétées par des bactéries et, en réponse, synthétiser et libérer des signaux chimiques vers ces bactéries », explique Sheref S. Mansy, de l’Université de Trento, en Italie.
Il reste encore néanmoins beaucoup de chemin à parcourir. Comme l’explique le chercheur : « la machinerie nécessaire pour la production des protéines à partir de plans d’ARN a été isolée à partir de bactéries vivantes avant d’être implantée dans les cellules artificielles, mais le scénario idéal serait d’avoir des cellules produisant leur propre machinerie de traduction ».
Cela dit, le fait que des bactéries vivantes puissent finalement ne pas faire la différence signifie que nous pourrions utiliser des cellules artificielles pour faciliter la connexion de vastes et complexes réseaux d’organismes. Le contraire pourrait également être possible. L’équipe a constaté que dans certains cas, les cellules artificielles pouvaient interférer avec l’activité des bactéries pathogènes, ce qui signifie qu’un jour nous pourrions les utiliser pour neutraliser des colonies adhésives de bactéries nocives qui sont responsables de plus de 80 % de toutes les infections microbiennes dans le corps.
Article rédigé par Georges Simmonds pour RT Flash
ACS
|
|
|
|
|
|
|
|
Pour détecter des mutations génétiques chez un patient à partir d'un échantillon de son ADN, il est nécessaire d'envoyer ce dernier dans un laboratoire d'un grand hôpital, qui possède tout l'équipement nécessaire. Mais comment faire lorsque l'échantillon est prélevé dans un pays en voie de développement ne bénéficiant pas de telles infrastructures, ou dans une zone reculée du monde ?
Pour surmonter cet obstacle, des chercheurs de l'Université de Stockholm (Suède) et de l'Université de Californie - Los Angeles (États-Unis) ont eu l'idée d'équiper un smartphone d'un dispositif imprimé en 3D afin que le médecin puisse détecter des mutations tumorales sur place, au chevet du patient ! Le dispositif se présente de la manière suivante : un smartphone (le test a été réalisé sur un "Nokia Lumia 1020"), est équipé d'un module imprimé en 3D, comprenant une LED pour l'éclairage et deux diodes laser pour l'imagerie en fluorescence.
L'ADN est rendu fluorescent par des substances appelées fluorochromes, chacune repérant et éclairant l'une des lettres composant l'ADN (les nucléotides A, T, C et G). Grâce à sa caméra et une lentille adaptée, le smartphone détecte les réactions de fluorescence et se lance, dans ces fragments d’ADN lumineux, à la recherche d'éventuelles mutations sur des gènes dont l'expression favorise la survenue d'un cancer (les scientifiques parlent "d'oncogènes"). Les chercheurs ont testé avec succès leur dispositif pour le gène KRAS, muté dans environ un tiers des cancers colorectaux.
Ce nouveau dispositif présente l'immense avantage d'être peu onéreux : il pourrait être fabriqué pour moins de 500 dollars (470 euros environ) s'il était produit en grande quantité - il est donc beaucoup moins cher que les équipements utilisés actuellement.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Selon une étude publiée dans la revue Tobacco Control, le coût mondial du tabagisme représenterait environ 6 % des dépenses mondiales consacrées à la santé ainsi que 2 % du Produit Intérieur Brut (PIB) global, soit 1 436 milliards de dollars dans le monde, dont 40 % à la charge des pays en développement.
Les chercheurs ont collecté des données sur 152 pays, représentant 97 % de l'ensemble des fumeurs de la planète. Ils ont évalué le coût du tabagisme en incluant les dépenses directes (hospitalisations et traitements) et les dépenses indirectes (calculées sur la base de la productivité perdue en raison des maladies et des décès prématurés).
En 2012, le tabagisme a été à l'origine d'un peu plus de 2 millions de décès chez des adultes âgés de 30 à 69 ans dans le monde, soit environ 12 % de l'ensemble des décès survenus dans cette tranche d'âge, selon cette étude. Les pourcentages les plus élevés ont, selon les chercheurs, été observés en Europe (26 %) et en Amérique (15 %).
Au cours de la même année, les dépenses directes de santé liées au tabagisme se sont élevées au total à 422 milliards dans le monde, soit 5,7 % de l'ensemble des dépenses de santé, un pourcentage qui atteint 6,5 % dans les pays à forts revenus. Le quart du coût économique total du tabagisme (1 436 milliards de dollars) est assumé par quatre pays : Chine, Inde, Brésil et Russie.
Rapporté au PIB des différents pays, le tabagisme s'est avéré particulièrement coûteux en Europe de l'Est (3,6 % du PIB) ainsi qu'aux Etats-Unis et au Canada (3 %). Le reste de l'Europe se situe à 2 % contre 1.8 % à l'échelle mondiale. L'OMS s'est fixé comme objectif de réduire d'un tiers les décès prématurés liés aux maladies non infectieuses, et notamment au tabagisme d'ici à 2030.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
ERRATUM
Dans notre article du 22-02-2017, intitulé "Une nouvelle immunothérapie efficace contre certaines leucémies de l'enfant", nous avons, de manière tout à fait non-intentionnelle, omis de mentionner que, si l'équipe des chercheurs de l'University College de Londres a bien expérimenté en 2015 ce nouveau traitement contre la leucémie aigüe lymphoblastique, c'est l'équipe du biologiste français André Choulika, Président et cofondateur de la société française Cellectis qui, la première , a mis au point et expérimenté, en 2010, ce nouveau traitement très prometteur , à l'Université de Pennsylvanie (USA).
Nous présentons toutes nos excuses pour cette omission involontaire
René Trégouët
|
|
|
|
|
Une semaine pour découvrir le fonctionnement de notre cerveau et les progrès faits par la Recherche en Neurosciences. La 19e édition de la Semaine du cerveau aura lieu en France et dans 62 pays dans le monde du 13 au 19 mars 2017. Pendant toute cette semaine, dans plus de trente villes françaises le grand public pourra aller à la rencontre des chercheurs pour apprendre à mieux connaître le cerveau et s'informer sur l'actualité de la recherche en neurosciences. Plus de 500 chercheurs enthousiastes sont impliqués dans cette campagne d'information grand public et gratuite.
Cette manifestation est coordonnée par la Société des Neurosciences sous l'égide de la Fondation Dana Alliance.
Voir la programmation de cette semaine du cerveau sur www.semaineducerveau.fr
|
|
|
|
|
Une semaine pour découvrir le fonctionnement de notre cerveau et les progrès faits par la Recherche en Neurosciences.
La 19e édition de la Semaine du cerveau aura lieu en France et dans 62 pays dans le monde du 13 au 19 mars 2017. Pendant toute cette semaine, dans plus de trente villes françaises, le grand public pourra aller à la rencontre des chercheurs pour apprendre à mieux connaître le cerveau et s'informer sur l'actualité de la recherche en neurosciences. Plus de 500 chercheurs enthousiastes sont impliqués dans cette campagne d'information grand public et gratuite.
Cette manifestation est coordonnée par la Société des Neurosciences sous l'égide de la Fondation Dana Alliance.
Voir la programmation de cette semaine du cerveau sur www.semaineducerveau.fr
|
|
|
|
|
|
|
|
Selon une étude sino-canadienne menée sur la souris puis reproduite chez l’Homme, une carence, même légère, en vitamine A, pourrait favoriser la maladie d’Alzheimer. Ces recherches préconisent une supplémentation, en cas de carence, et chez les personnes âgées comme thérapie complémentaire dans la prévention ou la prise en charge de la maladie d’Alzheimer.
La vitamine A contribue à stimuler le système immunitaire. On en trouve principalement dans les aliments de source animale, dont les produits laitiers, les œufs, la viande et le poisson gras, mais également dans certains fruits et légumes à feuilles. Les aliments d’origine animale contiennent de la vitamine A sous forme de rétinol et d’esters de rétinol alors que les légumes contiennent essentiellement des précurseurs du rétinol ou bêta-carotène. Les besoins quotidiens en vitamine A pour un adulte sont estimés de 0,7 à 1 mg environ.
Ici, les chercheurs de la Chongqing Medical University (Chine) et de l’University of British Columbia (Canada) ont travaillé sur des souris modèles d’Alzheimer. Leur étude constate que les souris déficientes en vitamine A présentent un développement anormal d’agrégats et de touffes de protéines caractéristiques de la maladie d’Alzheimer. Au-delà, la descendance de ces souris présente des capacités cognitives réduites, telles qu’évaluées par le test du labyrinthe.
Ces résultats sont également confirmés chez les humains : les chercheurs ont en effet analysé des prélèvements sanguins de 330 participants âgés en moyenne de 77 ans, résidant dans des foyers de soins chinois. Leurs capacités cognitives ont été évaluées et des prélèvements sanguins ont été effectués pour l’évaluation des niveaux de vitamine A.
L’analyse confirme le lien entre les niveaux de vitamine A et la déficience cognitive et montre que les scores aux tests sont moins bons chez les participants présentant une carence ou une carence marginale vs avec des taux de vitamine A normaux. Les chercheurs suggèrent ainsi, avec ces travaux, menés chez l’animal et confirmés chez l’Homme, que la carence en vitamine A est corrélée à une augmentation du déclin cognitif chez les adultes plus âgés.
A l’appui de cette association, ils constatent qu’une carence même légère en vitamine A favorise le dépôt de la plaque amyloïde chez les souris modèles Alzheimer et conduit à des déficits de mémoire. Ainsi, la supplémentation en vitamine A pourrait être une approche complémentaire possible pour la prévention et le traitement de la maladie d’Alzheimer.
Article rédigé par Georges Simmonds pour RT Flash
Acta Neuropathologica
|
|
|
|
|
|
|
|
L'équipe de Floyd E. Romesberg du Scripps Research Institute (Californie) a réussi à élaborer deux nouvelles bases, baptisées X et Y, mais surtout à assurer leur maintien lors de la réplication de l’ADN in vivo. Le but : créer des organismes semi-synthétiques, avec une information génétique enrichie (3 paires de bases au lieu de 2), afin de les doter de fonctions inédites.
Pour arriver à ce résultat, l’équipe a d’abord dû choisir les bases X et Y parmi un certain nombre de candidats. Les deux bases devaient être parfaitement complémentaires, comme le sont A et T d’une part, et G et C d’autre part, afin que la réplication puisse se faire sans aucun souci.
Pendant 15 ans, les chercheurs ont fabriqué 60 candidats, donc 3 600 paires possibles et ont réussi à en sélectionner une, puis à l’optimiser. Les deux bases sélectionnées ont été les composés NaM et TPT3. Une fois ces deux bases identifiées, le principal défi consistait à assurer leur réplication une fois insérée dans un organisme – en l’occurrence, la bactérie E. coli. Un plasmide, c’est-à-dire une molécule d’ADN circulaire fabriqué in vitro, contenant une paire de bases X et Y, a été importé dans la bactérie.
Dans un second temps, des bases X et Y libres ont été ajoutées dans le milieu de culture et le génome de la bactérie a été modifié pour produire une protéine permettant le passage de ces bases libres vers l’intérieur de la bactérie. Une fois à l’intérieur, elles ont été prises en charge par les enzymes qui assurent normalement la réplication de l’ADN d’E. coli et qui placent, en face de chaque base azotée, sa base complémentaire.
Chaque brin du plasmide a ainsi été efficacement copié, la séquence AGCXT devenant TCGYA. Mais la réplication de X et de Y n’était pas parfaite, explique Thomas Lavergne, chercheur CNRS au département de chimie moléculaire de l’Université Grenoble-Alpes, qui fait partie de l’équipe. C'est à ce stade qu'est intervenu le nouvel outil révolutionnaire appelé CRISPR-Cas9.
Cette enzyme permet en effet de couper l’ADN à un endroit souhaité. L’équipe de Floyd E. Romesberg a utilisé ce dispositif pour couper les morceaux d’ADN qui avaient muté. Pour Philippe Marlière, "l’utilisation de CRISPR-Cas9, en plus d’être une technique très élégante, a aussi été très efficace. Cela a considérablement amélioré la rétention de la paire de nucléotides X et Y."
Fort de ce résultat encourageant, l’équipe a ensuite testé cette technique de réplication de l’ADN modifiée d’E. Coli dans des conditions plus difficiles et dans différents milieux, liquides ou solides. Les résultats sont restés très satisfaisants. Au fil des réplications, la perte d’information par suppression de bases azotées ou par mutation a été négligeable et la croissance des bactéries n’a été ralentie que de 10 %, un chiffre remarquable.
Les chercheurs ne veulent pas s’arrêter là. La réplication ADN-ADN avec ces deux nouvelles bases n’est qu’une première étape. La prochaine, c’est le passage de l’ADN à l’ARN afin par la suite de produire des protéines qui seraient constituées d’aminoacides modifiés par l’homme. Il serait ainsi possible de fabriquer des protéines thérapeutiques totalement nouvelles.
Les chercheurs se veulent rassurants quant à cette nouvelle technique et soulignent qu’en l’absence des bases X et Y dans le milieu de culture, l’ADN semi-synthétique contenant par exemple ATGXC était rapidement converti en ADN naturel ATGAC. Ces bases X et Y étant exclusivement synthétiques et absentes de notre environnement, la propagation de ces organismes hors des frontières du laboratoire est donc impossible.
Article rédigé par Georges Simmonds pour RT Flash
Science Daily
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Comment organiser la transition entre les véhicules autonomes et connectés d'aujourd’hui et un véritable système intelligent plus sûr, plus confortable, plus fluide et plus durable dans quelques années ? En mariant les technologies d’aide à la conduite et la communication entre véhicules, répondent les chercheurs réunis au sein du projet européen AutoNet2030.
Ils viennent de prouver qu’il était possible de faire circuler, en conditions réelles, des véhicules avec et sans chauffeur sur plusieurs voies à grande vitesse de manière autonome. Une étape cruciale pour gérer la phase de transition a été réalisée par l’EPFL (Ecole Polytechnique Fédérale de Lausanne) qui a mis au point l’algorithme de contrôle du convoi de véhicules.
Grâce au protocole de communication, basé sur le Wi-Fi, entre véhicules, ces derniers sont aujourd’hui capables de communiquer avec leurs semblables. Parallèlement, les multiples aides à la conduite utilisant GPS, lasers, cameras et autres capteurs, permettent à une voiture de se déplacer de manière complètement autonome. Pour autant, il faudra encore une quinzaine d’années avant que l’essentiel du parc roulant soit doté de ces atouts qui nous promettent un avenir sans chauffeur.
Une des options étudiées aujourd’hui est de faire circuler les véhicules en convois. Par exemple, un camion avec chauffeur mène à la queue leu-leu des semi-remorques autonomes et connectés qui roulent à vitesse et à distance égales. Des tests ont déjà été réalisés avec succès sur des centaines de kilomètres en Australie. Le problème est que ce type de convoi se comporte comme un bloc exclusif et qu’au-delà d’un certain nombre de véhicules, il devient de plus en plus compliqué à gérer.
Les chercheurs d’AutoNet2030 proposent une autre formule : un système coopératif et décentralisé. Exit le chef. Chaque véhicule connecté communique avec ses proches voisins. Il calibre ainsi sa position et règle sa vitesse de manière indépendante. Le convoi peut ainsi aisément rouler sur une, deux ou davantage de voies sur une autoroute, intégrer un véhicule qui y entre et se repositionner en conséquence.
Mieux, chaque véhicule bénéficie des "yeux" de ses voisins et dispose ainsi d’une perception à 360 degrés. En outre, le nombre de véhicules qui composent le convoi n’est théoriquement pas limité puisque chaque élément se positionne de façon autonome.
La gestion du convoi repose sur un logiciel de contrôle, un algorithme développé par le Laboratoire de systèmes et algorithmes intelligents distribués (DISAL) de l’EPFL.
"Schématiquement, l’idée est de faire coopérer des agents (robots ou voitures) individuellement, pas forcément très malins, afin d’obtenir un comportement général complexe", explique Alcherio Martinoli, directeur du DISAL. Mathématiquement, cela veut dire que l’algorithme intègre les informations fournies par les capteurs des agents et règle, en temps réel, l’évolution du convoi en conséquence. Le convoi se réorganise sans cesse automatiquement en fonction d’un départ ou d’une nouvelle arrivée, des changements de voie ou du respect d’une vitesse prédéfinie.
La démonstration finale a eu lieu fin octobre en Suède, sur le circuit d’essai routier AstaZero. Trois véhicules ont joué le jeu : un camion sans chauffeur, une voiture autonome et une voiture manuelle, un enjeu majeur du projet. Les chercheurs ont équipé cette dernière de capteurs tels que GPS et lasers ainsi que d’une interface homme-machine permettant au conducteur de suivre les indications afin de se fondre dans le convoi. « Nous avons pour la première fois pu démontrer ce que nous avions validé par simulation. Et le nombre de véhicules en convoi n’influence pas la complexité du contrôle », se réjouit Alcherio Martinoli.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|