|
|
|
|
|
NUMERO 1029 |
|
|
|
|
|
|
|
Edition du 13 Décembre 2019
|
|
|
|
|
Edito
Il faudrait refondre l’Internet sur de nouvelles bases
Rappel :
Si vous voulez que RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998, puisse continuer à être mise en ligne chaque semaine en 2021
appuyez sur le lien suivant : Faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale
EDITORIAL
C’est peu de dire que, depuis l’ouverture du premier site Web en décembre 1989, l’Internet, avec ses deux protocoles de base, le HTTP (pour localiser et lier les documents) et le HTML (pour créer les pages) a provoqué l’une des plus grandes révolutions économique, sociale et technologique de tous les temps, au moins équivalente, par son ampleur, aux grandes ruptures techniques qui, dans le domaine de l’information, du savoir et de la communication, ont bouleversé notre histoire depuis la naissance des premiers civilisations : l’écriture (Vers 3500 ans avant JC), l’imprimerie (inventée dans sa version xilographique dès le VIIème siècle en Chine, puis dans sa version métallique au début du XVème siècle en Europe), le téléphone (co-inventé par les américains Antonio Meuci, Elisha Gray et Graham Bell, en 1876), la radio (inventé en 1894 par Marconi, à partir des travaux d’Hertz, Popov, Branly et Lodge), la télévision (co-inventée en 1923 par le russe Zvorykin et l’écossais John Logie Baird) et l’ordinateur (co-inventé par l’allemand Conrad Zuss, en 1941 et les américains Mauchly et Eckert en 1945), le microprocesseur (inventé en 1971 par Marcian Hoff) et l’intelligence artificielle (conceptualisé en 1950 par Turing dans son célèbre article “Computing Machinery and Intelligence”).
Aujourd’hui, 30 ans seulement après sa naissance, le nombre d’utilisateurs de l’Internet a atteint 4,5 milliards (58 % de la population mondiale) et dépassera les cinq milliards en 2020. Quant au nombre d’abonnés au haut débit fixe, il a franchi, il y a quelques semaines, la barre du milliard. Mais la grande révolution en cours dans l’accès au Net est l’internet mobile, qui permet de se connecter à partir de son téléphone portable ou de sa tablette. Depuis la fin 2016, l’Internet mobile représente plus de trafic que l’Internet fixe au niveau mondial et une récente étude publiée de la GSMA rapporte en effet que le monde comptera, en 2025, 5,8 milliards d’abonnés mobiles, soit 71 % de la population mondiale, et avant la fin de la prochaine décennie, on estime que huit terriens sur dix pourront accéder au Net, via un mobile ou terminal portable…
Rançon de cette fulgurante progression, depuis le 25 novembre dernier, les adresses IPv4 sont épuisées en Europe et seules des entreprises n’ayant jamais obtenu d’adresse IPv4 auparavant peuvent encore s’inscrire dans une liste d’attente. Face à cette pénurie d’adresses, le nouveau protocole, l’IPv6, va accélérer sa montée en puissance. Il offre une quasi-infinité d’adresses (667 millions d’IPv6 pour chaque millimètre carré de surface terrestre) et son taux d’utilisation mondial a déjà dépassé les 25 % (36 % en France). L’IPV6 va non seulement permettre de mettre fin à la pénurie d’adresses personnelles mais va également booster l’Internet des objets, qui compte déjà 26 milliards d’objets connectés dans le monde (contre 5 en 2015) et devrait atteindre les 125 milliards d’objets connectés en 2030.
C’est dans ce contexte que Tim Berners-Lee, inventeur du World Wide Web au sein du CERN en 1989, vient de lancer une initiative mondiale remarquable, destinée à refonder le Net et à le remettre au service du plus grand nombre, en essayant de mieux prévenir et combattre ce fléau que sont devenues les utilisations criminelles et immorales du Web. Baptisée #ForTheWeb, cette initiative est soutenue par plusieurs états – dont la France et l’Allemagne – et a également rallié plus de 80 organisations, des firmes comme Google, Facebook, Reddit et des groupes comme le W3C, l'Electronic Frontier Foundation, Public Knowledge et Ranking Digital Rights (Voir Contract for The Web).
Le père du World Wide Web part d’un constat difficilement contestable, « le pouvoir du bien est de plus en plus détourné, que ce soit par des escrocs, des personnes propageant la haine ou des intérêts personnels menaçant la démocratie et il est temps de se mobiliser et de lutter ensemble pour le Web que nous voulons ». Tim Berners Lee a notamment été scandalisé par l’affaire Cambridge Analytica, qui a tristement a montré à quel point il est difficile d’empêcher des organisations de gagner de l’argent avec les données qu’elles peuvent collecter.
Tim Berners Lee se réjouit de la façon dont l’Internet à contribué pour améliorer dans de multiples domaines la vie quotidienne. Mais il considère que le Web est également devenu une source intolérable de nouvelles menaces, notamment en matière de propagation de discours violents et haineux, de fausses informations, de manipulation politique et électorale, de harcèlement en ligne, et d’atteintes à la vie privée. La Web Foundation souligne qu'aux États-Unis, un jeune de 12 à 17 ans sur trois a été victime d'intimidation en ligne, qu'une fakenews atteint 1 500 personnes six fois plus vite, en moyenne, qu'une histoire vraie, et que les escroqueries en ligne coûtent aux utilisateurs dans 20 pays environ 172 milliards $ en 2017.
A l’issue d’un an de travail, et après avoir consulté de nombreux acteurs, Berners-Lee a dévoilé une première mouture de son « Contrat pour le Web », dont les neuf principes se déclinent en 76 articles qui constituent une véritable charte de gouvernance de l’Internet et de bonne conduite sur le Web.
Le contrat stipule, par exemple, que les gouvernements doivent veiller à ce que tout le monde puisse se connecter à Internet et à ce que tout le monde y ait accès en permanence, tandis que les entreprises de technologie sont invitées à rendre Internet abordable et accessible à tous, et à respecter la vie privée et les données personnelles des consommateurs. Autre point central, ce projet demande aux entreprises de technologie de proposer un panneau de contrôle central qui permettra aux consommateurs de voir quelles données les concernent.
Le créateur du World Wide Web propose donc un contrat en neuf points à destination des gouvernements, des entreprises et des citoyens. Son objectif : garantir la sécurité, la responsabilisation et l’authenticité de notre monde en ligne.
Trois principes sont dévolus aux gouvernements : assurer une connexion Internet pour tous, maintenir ce droit à la connexion en toute circonstance et respecter les droits fondamentaux de respect et de confidentialité des données.
Pour les entreprises, les trois principes à défendre doivent être de rendre Internet « abordable et accessible » pour tous, de respecter les données privées personnelles et la vie privée ainsi que développer des technologies qui « supportent le meilleur de l’humanité et défient le pire ».
Enfin, les citoyens sont invités à devenir d’actifs collaborateurs du Web, à participer à des communautés défendant les droits civiques et respectant la dignité humaine et enfin à devenir des lanceurs d’alertes, se mobilisant en faveur d’une utilisation vertueuse du Net. « Nous aurons réussi lorsqu’une masse critique de gouvernements et d’entreprises aura mis en place les lois, réglementations et politiques appropriées pour créer un réseau ouvert et responsabilisant pour tous », souligne Tim Berners-Lee.
Consciente de l’importance de ces enjeux sur l’avenir du Web et ses finalités, l’Europe tente également de trouver une voie originale et équilibrée, pour définir un nouveau cadre qui puisse mieux concilier protection des internautes et liberté d'expression sur Internet et n'entrave pas l'innovation technologique.
Le régime européen de responsabilité des plates-formes en ligne est historiquement organisé par la directive sur le commerce électronique adoptée en 2000. Elle distingue les éditeurs et les hébergeurs pour leur attribuer des obligations différentes. Les éditeurs ont une responsabilité calquée sur la loi de 1881 (liberté de la presse). Ils sont responsables de tous les contenus figurant sur leur site internet. Logiquement, ils peuvent donc être déclarés responsables non seulement pour ce qu’ils écrivent eux-mêmes, mais également, dans certains cas, pour les commentaires des participants.
A contrario, la responsabilité d'un hébergeur ne peut être engagée que dans deux cas de figures : lorsque celui-ci ne retire pas promptement un contenu manifestement illicite qui lui a été signalé par un tiers et lorsqu'il ne retire pas un contenu dont le retrait a été exigé par un juge. Par ailleurs, il n'est pas tenu de mettre en place un mécanisme général de surveillance des contenus, même si la plupart ont fait le choix de mettre en place un système de filtrage.
Dans le cadre européen et national actuel, les plates-formes en ligne sont considérées comme des hébergeurs de contenu et non comme des éditeurs. La loi française les oblige à mettre en place des dispositifs permettant aux internautes de signaler certains contenus illicites et, d'autre part, d'informer promptement les autorités publiques de toutes activités illicites qui leur seraient signalées. Ces obligations s’appliquent notamment dans les cas d'apologie des crimes contre l'humanité, d'incitation à la haine raciale, de pornographie enfantine, d'atteintes à la dignité humaine et d'incitation à la violence.
Toutefois, ces règles apparaissent de moins en moins adaptées, face à l’extraordinaire montée en puissance des réseaux sociaux, dont les quatre premiers – Facebook, Youtube, WhatsApp et Instagram n’existaient pas il y seulement quinze ans, et rassemblent aujourd’hui plus de 3,5 milliards d’utilisateurs dans le monde. Ces réseaux sociaux captent à présent l’essentiel de l’immense trafic du Net (qui selon Cisco a été multiplié par quatre en 7 ans, passant de 43 à 170 exabytes par mois entre 2012 et 2019), notamment video, et les mécanismes d’autorégulation des grandes plates-formes sont totalement débordés par l’avalanche de contenus et messages haineux, mensongers ou diffamatoires. La preuve en est de la tuerie de Christchurch (Nouvelle-Zélande) qui a été diffusée en direct sur Facebook en mars 2019.
Pour faire face à l’explosion des dérives et des discours haineux et extrémistes en ligne, la Commission européenne a mis en place, en 2016, le "code de bonne conduite contre la haine en ligne". Il a été signé par les principales entreprises, notamment Facebook, Instagram et YouTube. Ces géants du web se sont engagés à signaler les contenus haineux en ligne en moins de 24 heures. Résultat : 89 % des 4 392 publications problématiques ont été signalées dans les délais, contre seulement 40 % lors du lancement du dispositif, ce qui montre bien qu’il est tout à fait possible de réguler le Net, pourvu qu’une volonté politique forte et claire s’exprime…
Par ailleurs, la Commission européenne a affiché sa volonté, en avril dernier, de transformer et d’intégrer la directive de 2000 sur le e-commerce dans un ambitieux « Digital Services Act », ou Loi sur les Services Numériques qui sera présentée en 2020. Cette nouvelle législation a pour ambition d'imposer des obligations beaucoup plus strictes de "notification et suppression" aux plates-formes, sous peine d'amende.
En France, l'Assemblée nationale a adopté à une large majorité, en juillet dernier, une proposition de loi sur les contenus haineux sur Internet, portée par la députée Laetitia Avia. Ce texte prévoit une liste de contenus qui devront être retirés sous 24 heures par les réseaux sociaux, les plates-formes collaboratives et les moteurs de recherche. Ces acteurs risqueront jusqu’à 1,25 million d’euros d’amende. En cas de violation des obligations de transparence, le CSA pourra lui infliger une sanction jusqu’à 4 % du chiffre d’affaires mondial.
Ce texte prévoit également une série de nouvelles contraintes pour les plates-formes : transparence sur les moyens mis en œuvre et les résultats obtenus, coopération renforcée notamment avec la justice, protection des mineurs. Cette loi, qui va être examinée par le Sénat la semaine prochaine, prévoit également des recours contre les abus. Il est notamment prévu que les internautes dont le contenu aura été supprimé ou déréférencé puissent contester la mesure dont ils sont l’objet. À contrario, en cas de non retrait de propos signalés, la personne à l'origine du signalement pourra elle aussi contester la décision des modérateurs.
Reste que cette loi rencontre de fortes résistances au niveau européen, que ce soit de la part des FAI ou de la nouvelle Commission, qui - sans être opposée sur le fonds à cette proposition de loi française - souhaiterait intégrer ces nouvelles dispositions dans le cadre plus vaste de son grand « Digital Services Act » en cours d’élaboration. Ce qui est certain, c’est que la redoutable commissaire européenne à la Concurrence et au Numérique, Margrethe Vestager, qui vient d’être reconduite pour 5 ans dans ses fonctions, a déjà annoncé que l’Europe comptait bien imposer aux GAFA de nouvelles règles beaucoup plus strictes pour réguler le Net et sanctionner la concurrence déloyale et les abus de position dominante dans l’économie numérique.
L’Europe, comme la France, reste également attachée au principe fondamental de neutralité du Net à travers la déclaration commune du 14 juin 2018 (voir BEREC) et la loi pour une République numérique du 7 octobre 2016, qui confirment le principe d’un Internet ouvert et libre, et garantissent que le réseau ne peut opérer aucune discrimination en fonction des émetteurs des contenus qui y sont diffusés, de leurs récepteurs et de la nature des contenus elle-même.
Mais cette conception d’un Internet ouvert et universel reste fragile et est loin de faire l’unanimité dans le monde. Ce principe a notamment été remis en cause fin 2017 par la Commission fédérale des communications (FCC), régulateur américain du secteur, pour satisfaire les intérêts des principaux fournisseurs d’accès américains, qui souhaitent pouvoir choisir et tarifer comme bon leur semble les contenus qu’ils véhiculent.
Si nous voulons éviter que se creuse dans notre pays une dangereuse fracture territoriale, sociale, et cognitive, nous devons étudier avec grand intérêt les propositions et recommandations de ce « Contrat pour le Web » que nous propose, avec beaucoup de pertinence, de sagesse, Tim Berners Lee et nous en inspirer pour reconstruire ensemble un Internet neutre, universel, régulé et collaboratif, qui soit d’abord au service des citoyens et de l’intérêt commun et s’inscrive dans le projet de civilisation humaniste et démocratique que portent la France et l’Europe.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Avec l'accroissement exponentiel du nombre de données produites par la société numérique, la question du stockage de longue durée à un coût acceptable est devenue majeure. Pour relever ce défi, Microsoft et Warner Bross se sont associés au sein du projet "Silica". Et les résultats sont plutôt encourageants : La société américaine a révélé, lors de la keynote d’ouverture de sa conférence Microsoft Ignite, avoir stocké, en collaboration avec Warner Bross, le film Superman sorti en 1978, sur un carré de quartz de 7,5 cm de côté et de 2 millimètres d’épaisseur.
Pour réaliser cette prouesse, les chercheurs ont utilisé un laser femtoseconde qui encode les données dans le verre en créant des couches d'indentations et déformations tridimensionnelles, à différents angles et profondeurs, à l'échelle nanométrique. Des algorithmes de machine learning peuvent ensuite lire les données en décodant les images et motifs créés lorsque de la lumière polarisée passe à travers le verre. Cette surface de verre peut contenir jusqu’à 75,6 Go de données.
Les chercheurs décrivent ce processus comme créant des voxels (volumetric pixels), des pixels en trois dimensions. Pour rappel, les pixels (picture elements) sont les plus petits éléments d'une image en deux dimensions et contiennent des informations de couleur. La particularité du Project Silica est qu'il n'écrit pas les données sur une surface, comme c'est le cas pour les CDs et DVDs, mais les gravent directement dans le quartz. En l'occurrence, le morceau utilisé contient plus de 100 couches de voxels.
Jusqu'à présent, le studio hollywoodien conservait trois copies de ses films – deux copies numérisées distinctes et une copie physique originale – de chaque élément. "La copie physique originale a une durée de vie limitée qui nécessite une migration vers de nouveaux formats", explique Warner Bross. Pour les films récents et tournés en format numérique, la société créait un troisième exemplaire en analogique via des négatifs de film en noir et blanc, placés ensuite dans une unité de stockage frigorifique avec contrôle strict de l'atmosphère. Des processus longs et coûteux, qui n’empêchent pas par ailleurs une détérioration des matériaux.
Or le principal bénéfice de cette technologie est la suivante : le quartz, composé de silice (d'où le nom du projet), peut supporter d'être trempé dans l'eau bouillante, cuit dans un four, passé au micro-ondes, ou d'être frotté avec de la laine d'acier… "et les autres menaces environnementales pouvant détruire des archives historiques ou des trésors culturels inestimables", avance Microsoft.
Microsoft explique que cette technologie pourrait considérablement réduire les coûts nécessaires au stockage de données, et qu'elle pourrait être mise en œuvre dans le cadre de ses services cloud Azure. Elle représente en effet une opportunité pour l'entreprise dans un contexte où la quantité de données que l’humanité cherche maintenant à stocker explose, et ce alors que la capacité des technologies de stockage existantes plafonnent.
Contrairement à un disque dur, qui a une durée de vie de trois à cinq ans, ou à une bande magnétique (cinq à sept ans), le stockage sur quartz "permet de conserver les données pendant des siècles". Autre avantage : les données n’étant écrites qu'une seule fois sur le quartz, elles ne subissent pas de dégradation comme lors de migrations de données classiques. Autre source de réduction des coûts et d’empreinte environnementale : le quartz n’a pas besoin, contrairement à des datacenters par exemple, de système de climatisation ou d’aération.
Article rédigé par Georges Simmonds pour RT Flash
Engadget
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de chimie et de technologie, issu de l’Institut de chimie organique et de biochimie de Prague, sont en train de mettre au point un robot pour lutter contre la présence d’uranium. Ce robot microscopique serait capable de nettoyer les eaux usées en récupérant l’uranium resté dans celles-ci.
Ces robots microscopiques sont fabriqués à partir de minuscules structures organométalliques composées d’oxyde ferroferrique magnétique et de platine catalytique. Chaque robot est environ quinze fois inférieur à la taille d’un cheveu humain. Le mouvement du micro-robot est possible grâce à la platine. Cet outil est finalement un catalyseur qui vient déclencher la décomposition du peroxyde d’hydrogène en présence d’eau.
Grâce à cette réaction, le robot crée des bulles qui lui permettent de se déplacer dans les eaux usées. Pour récupérer les particules, les chercheurs ont mis au point un système aimanté, qui vient attirer directement les micro-robots chargés en uranium. La composition en fer des nanoparticules d’uranium permet une compatibilité avec les aimants.
En testant leurs micro-robots, les scientifiques ont pu observer que 96 % de l’uranium présent dans les eaux ciblées avait disparu en seulement une heure. La réussite est immense et le projet pourrait être développé à grande échelle. La problématique dépend de l’ampleur des espaces touchés par les catastrophes radioactives. Un robot peut collecter jusqu’à 0,0776 nanogramme d’uranium, il faut donc établir en amont le nombre de micro-robots nécessaires à la zone visée.
Article rédigé par Georges Simmonds pour RT Flash
Siècle Digital
|
|
|
|
|
|
|
|
Une équipe de neuroscientifiques de l’Institut de neurosciences Wu Tsai de l’Université de Stanford a démontré qu’un algorithme pouvait être programmé pour reconnaître les impulsions neuronales liées à l’acte d’écrire des lettres.
Ce nouveau dispositif permet aux personnes paralysées de communiquer deux fois plus vite par rapport aux autres technologies actuellement destinées à cet effet. Pour mener à bien leur recherche sur ce nouveau dispositif, les scientifiques de l’Université de Stanford ont fait appel à un volontaire tétraplégique. Lors des essais, ce dernier devait s’imaginer en train de bouger le bras et la main pour écrire. Cet exercice permettait de générer une activité cérébrale qui a permis de former un modèle informatique appelé réseau neuronal.
Par la suite, le réseau neuronal a interprété les commandes reçues en traçant les formes préconisées par le cerveau sur une interface numérique. Les chercheurs ont par ailleurs indiqué que les patients pourraient formuler des phrases avec 92 % de précision, et ce à une vitesse d’environ 66 caractères par minute. Mais cela pourrait augmenter considérablement avec plus de pratique. Cette nouvelle technologie révolutionnaire a été officiellement présentée lors de la réunion annuelle de la Society for Neuroscience à Chicago.
Article rédigé par Georges Simmonds pour RT Flash
Stanford
|
|
|
|
|
|
|
|
Le Toyota Research Institute travaille à la conception de robots domestiques pour effectuer différentes tâches ménagères à la place des seniors dans les foyers. Et pour développer ces robots révolutionnaires, la firme nippone a eu recours à la technologie du « fleet learning ».
La configuration unique de chaque maison est l’une des plus grandes difficultés rencontrées par les chercheurs du Toyota Research Institute pour la conception de ses robots domestiques. En raison des différences entre les demeures (taille, nombre de pièces, agencement, meubles, vaisselle, etc.), il serait quasiment impossible et extrêmement coûteux de créer une programmation unique pour chaque foyer.
Pour contourner ce problème, les chercheurs ont donc eu recours à la technologie du « fleet learning », qui est actuellement utilisée par Tesla pour permettre à ses flottes de véhicules autonomes de s’améliorer sans l’intervention des hommes. En bref, il s’agit d’un modèle d’apprentissage permettant aux robots d’effectuer la même tâche dans des environnements différents et en évolution.
Pour l’instant, le robot est encore au stade de prototype et Toyota n’a encore rien révélé quant à sa commercialisation. Le 3 octobre dernier, les ingénieurs de la firme nippone ont publié une vidéo de démonstration pour montrer de quoi il sera capable. Et d’après ce que l’on a pu voir pendant ces quelques minutes, la machine devrait être en mesure de réaliser la plupart des tâches domestiques du foyer. Tout d’abord conçue pour venir en aide aux personnes âgées dépendantes, l’entreprise songe également à étendre l’utilisation de cette technologie dans le secteur de la logistique et de la manufacture.
Article rédigé par Georges Simmonds pour RT Flash
TRI
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs chinois ont mis au point un revêtement de papier réinscriptible qui permet de crypter des informations secrètes. Ils utilisent notamment une encre invisible à base d'eau. « La sécurité de l’information est un sujet qui préoccupe beaucoup de personnes, surtout dans les domaines économique et militaire. Par conséquent, le but principal de notre travail est de fournir une solution sûre et pratique », explique Qiang Zhao, de l’Institut des matériaux avancés (Laboratory for Organic Electronics and Information Displays & Jiangsu Key Laboratory for Biosensor).
Il existe en effet une demande croissante pour la sécurité des documents papier, car il reste encore le support le plus répandu pour le stockage de l’information. L’une des approches les plus populaires pour l’enregistrement des données de sécurité sur papier consiste à utiliser des encres de sécurité fluorescentes dont les informations ou motifs imprimés ne sont visibles que sous la lumière UV. Mais la plupart des encres de sécurité fluorescentes largement utilisées ont une faible complexité et une grande prévisibilité, de sorte que les informations enregistrées peuvent être facilement « déchiffrées ».
Développé par Qiang Zhao, Yun Ma, Wei Huang et des collègues, ce procédé ingénieux a été présenté en septembre dernier dans la revue Matter. Leur méthode d’impression sécurisée et réinscriptible s’appuie sur les réactions photoluminescentes (phénomène d’émission de lumière suite à la réaction d’un matériau photoluminescent sujet à une « excitation » par exposition à un rayonnement optique ultraviolet, visible ou infra rouge) du manganèse dans l’eau. Les complexes ioniques luminescents de Mn (II) sont des « candidats idéaux pour une application en impression de sécurité », selon les scientifiques chinois.
Ils ont enduit un film polymère contenant les complexes ioniques de Mn (II) sur du papier filtre où les informations confidentielles peuvent être imprimées à plusieurs reprises en utilisant de l’eau pure comme encre, ce qui peut détruire la coordination ionique des complexes.
Mais on peut le lire sous une lumière UV de courte longueur d’onde (254 nm). Mieux, le papier peut être réutilisé (pour au moins 30 cycles selon ses inventeurs) après avoir effacé le message en le chauffant avec un sèche-cheveux pendant 15 à 30 secondes !
Cette solution présente plusieurs avantages. Premièrement, son faible coût. Les Chinois l’estiment à 0,002 dollar. Mais surtout, « la plupart des encres de sécurité fluorescentes sur le marché – utilisées pour enregistrer des informations confidentielles – ne sont pas respectueuses de l’environnement et ne peuvent pas être effacées », précise cette équipe.
D’autres pistes sont envisagées, car la lumière UV de courte longueur d’onde est potentiellement nocive pour l’homme. Les chercheurs chinois travaillent à trouver une solution capable de réagir à la lumière visible ou proche de l’infrarouge. Par ailleurs, Zhao et ses collègues ont également développé une impression de sécurité de haut niveau. Les chercheurs enduisent le papier de ligands à phosphine. Il s’agit de molécules qui peuvent s’accrocher au manganèse dans l’encre en solution saline d’halogénure de manganèse pour créer le complexe manganèse.
Les informations enregistrées sont invisibles à la fois sous la lumière ambiante et sous la lumière UV. Les données ne seront révélées que lorsqu’elles seront analysées par une technique d’imagerie à durée de vie par photoluminescence (Phosphorescence Lifetime Imaging-PLIM), ce qui les protégera des méthodes classiques de décryptage.
Article rédigé par Georges Simmonds pour RT Flash
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
Des chercheurs de l’Empa et des partenaires Suisses, des Pays-Bas, d’Israël et du Royaume-Uni ont réussi à résoudre un élément crucial dans la réalisation des circuits du futur : Un pont moléculaire pour électrons stable mécaniquement et électroniquement à température ambiante.
L’électronique moléculaire, des circuits électriques composés de molécules, pourrait permettre à l’avenir de construire des appareils électroniques à l’échelle nanométrique et se basant sur des fonctions nouvelles. Néanmoins, les composants devraient être construits et assemblés avec une précision atomique.
Des chercheurs du laboratoire “Transport at Nanoscale Interfaces” de l’Empa, dirigés par le professeur Michel Calame, et collaborant avec des partenaires des universités de Bâle et de Berne, de l’Institut Suisse des nanosciences, de l’Université technique de Delft aux Pays-Bas, de l’Université de Lancaster et de l’Université de Warwick au Royaume-Uni, ainsi que de l’Université hébraïque à Jérusalem, ont réussi à former des jonctions moléculaires intégrées entre des électrodes en graphène avec une stabilité inédite.
Les chercheurs ont choisi une approche simple et non conventionnelle : la construction d’un pont moléculaire pour contrôler le courant. Le pont doit être mécaniquement et électroniquement stable pour éviter toutes fluctuations, inhérentes aux dispositifs nanométriques, et ce, à température ambiante. De plus, pour pouvoir être utilisé dans une application, particulière chaque caractéristique du dispositif doit pouvoir être reproduite à l’identique sur plusieurs échantillons.
De plus, le problème de la stabilité mécanique et électronique impose des exigences très différentes aux propriétés du pont. « Un faible couplage entre les orbitales fournit une connexion électronique intéressante entre les deux électrodes en graphène et rend les propriétés de jonction moins sensibles aux fluctuations électroniques locales des électrodes. Cependant, cette stratégie conduit à des connexions mécaniquement instables », explique Maria El Abbassi, la première auteure de l’article.
En revanche, si l’on utilise des molécules qui forment une liaison covalente avec les électrodes de graphène, le système peut être mécaniquement plus stable – mais les propriétés de transport du pont sont mal définies en raison du manque de contrôle de la géométrie et des bords des électrodes conduisant à une forte variation des propriétés électroniques.
Les chercheurs ont réussi à construire un pont moléculaire reproductible combinant les deux propriétés de stabilité mécanique et électronique. Chaque molécule formant le pont se compose de trois composantes : un groupe silane, un groupe fonctionnel et une chaîne alcane de séparation. La tâche du groupe silane est d’ancrer mécaniquement les molécules au substrat d’oxyde de silicium. Il se lie par une liaison forte et covalente avec le substrat. Le procédé de silanisation offre également un autre avantage souhaité : une couche protectrice est formée sur l’oxyde de silicium.
La deuxième partie clé de la molécule est le groupe fonctionnel. Sa tâche est de construire un pont pour les électrons entre les deux électrodes de graphène par un processus purement quantique : les orbitales pi des molécules adjacentes sont délocalisées et forment un nuage ou pont électronique avec celles des deux électrodes de graphène. Enfin, la chaîne alcane isole électroniquement l’ancrage mécanique de la fonction électronique. Les molécules ainsi formées sont empilées entre les deux électrodes de graphène et forment un élément conducteur contrôlé.
Pour le groupe fonctionnel, les chercheurs ont étudié trois groupes différents. Le premier groupe de tête (CH3) a servi de test. Les jonctions ainsi formés ont une connexion électronique limitée. Un deuxième groupe, le N-carbazole, ne s’est pas avéré idéal, car un pont électronique a été construit, mais n’a pas fourni une stabilité suffisante pour former une voie électronique bien définie.
L’augmentation du chevauchement des orbitales a été réussie grâce au troisième candidat – le biphényle N-carbazole – qui a prouvé que la stratégie pourrait en effet conduire à des jonctions stables. Les chercheurs ont également pu montrer que les propriétés électroniques de la construction du pont sont stables à des températures allant de 20 degrés au-dessus du zéro absolu à la température ambiante. “Cela nous a permis de démontrer une stratégie simple mais efficace pour incorporer des fonctions moléculaires dans les systèmes nanoélectroniques de l’avenir “, explique Michel Calame.
Article rédigé par Georges Simmonds pour RT Flash
Enerzine
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
On sait à présent que la fonte du pergélisol, le sol gelé des régions arctiques, pourrait entraîner une augmentation des émissions de dioxyde de carbone de 41 % d'ici 2100 si rien n'est fait pour enrayer le réchauffement climatique. Cette surface, qui constitue 24 % des terres émergées de l'hémisphère nord, capture le gaz depuis des dizaines de milliers d'années. Il en renfermerait au total quelque 1.700 milliards de tonnes, soit deux fois plus que la quantité présente dans l'atmosphère.
Mais selon une étude canadienne réalisée par des chercheurs des universités de Toronto, Edmonton et Waterloo, les rivières glaciaires sont capables d'absorber du dioxyde de carbone (CO2) plus rapidement que les forêts tropicales. Pour les scientifiques, qui ont réalisé des prélèvements d’eau de fonte de glaciers sur l’île d’Ellesmere, dans le territoire canadien du Nunavut, cette découverte est une réelle surprise. Les rivières se trouvant dans les zones tempérées sont en effet de fortes émettrices de CO2 en raison de la décomposition de nombreuses matières organiques en leur sein.
À l'inverse, les rivières glaciaires qui, en raison de leur température, n'hébergent que peu de vie, donnent bien moins lieu à la décomposition organique et donc à l'émission de CO2, expliquent les auteurs de l'étude. Dans le même temps, des sédiments en provenance des glaciers, comme le silicate et le carbonate, amorcent un processus chimique d'"altération" lorsqu'ils se retrouvent dans l'eau, au contact du CO2. Kyra St Pierre, biologiste à l'université de Colombie-Britannique et auteur principal de l'étude, souligne que. « Lorsque ces sédiments se mélangent à des eaux de fonte, qui se mélangent à leur tour à l'atmosphère, ils peuvent subir un certain nombre de réactions d'altération chimiques, dont certaines consomment du dioxyde de carbone ».
Selon les scientifiques, cet effet serait perceptible jusqu'à 42 kilomètres de la source de la rivière. Ce qui fait des rivières glaciaires des inhibitrices de CO2 bien plus puissantes que la forêt Amazonienne lors des périodes de forte fonte des glaces. « Lors de la période de fonte des glaces en 2015, alors que les glaciers ont fondu trois fois plus qu'en 2016, la consommation de CO2 par les rivières glaciaires était, en moyenne, deux fois plus élevée que celle de la forêt amazonienne », décrivent les scientifiques. Un pic d’absorption quarante fois supérieur à ce qui peut être effectué par les arbres de cette zone tropicale a même été atteint.
Article rédigé par Georges Simmonds pour RT Flash
PNAS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une étude américaine dirigée par John S Hutton, pédiatre au Children's Hospital Medical Center de Cincinnati, a montré que la construction du cerveau des plus jeunes est aussi altérée par un usage trop intense de ces outils. Ces chercheurs ont montré que les enfants qui utilisent le plus les écrans ont de moins bons scores lors de tests de langage, d’écriture et de lecture.
Pour les besoins de cette recherche, 47 enfants en bonne santé, dont 27 filles et 20 garçons, ont été recrutés. Tous avaient entre 3 et 5 ans et ont réalisé des tests cognitifs. Les médecins ont fait des IRM pour analyser la densité de matière blanche dans le cerveau et son intégrité structurelle. La matière banche ressemble à une accumulation de câbles, entourés de myéline, qui permettent aux différentes zones du cerveau de communiquer. En parallèle, les parents ont répondu à un questionnaire sur la relation de leurs enfants aux écrans.
Les scientifiques ont constaté que les enfants qui passaient le plus de temps sur les écrans avaient les moins bons scores dans les tests de langage : ils avaient besoin de plus de temps pour nommer des objets, et lors des tests d’écriture et de lecture. L’intégrité de leur matière blanche était également plus faible, ce qui signifie que les connexions nerveuses étaient plus lentes.
« Ces résultats montrent l’importance de comprendre les effets du temps passé devant les écrans sur le cerveau, en particulier pendant les périodes de développement cérébral dans l’enfance », explique l’auteur principal de l’étude, le docteur Hutton, « pour que les décideurs politiques et les parents puissent établir des limites ». L’académie américaine de pédiatrie recommande justement aux parents de limiter l’usage des écrans pour leurs enfants. Pour les bébés de moins de 18 mois, mieux vaut ne pas du tout utiliser les écrans, à l’exception des outils d’appel vidéo.
Entre 18 et 24 mois, les parents peuvent regarder avec leurs enfants des contenus vidéos de bonne qualité et leur expliquer. Entre 2 et 5 ans, l’utilisation d’écrans doit être limitée à une heure par jour au maximum, en s’assurant toujours de la qualité des programmes et en les expliquant. L’organisme suggère de délimiter des moments et des espaces sans écran dans la maison.
Article rédigé par Georges Simmonds pour RT Flash
JAMA
|
|
|
|
|
|
|
|
C'est une découverte fondamentale majeure que viennent de faire des chercheurs de l'ULB (Université Libre de Bruxelles) Ces scientifiques ont en effet montré que, pour quitter la tumeur primaire et se propager dans des organes distants, les cellules cancéreuses doivent perdre certaines propriétés et en acquérir de nouvelles : la transition épithélio-mésenchymateuse (EMT) est suspectée de jouer un rôle important dans cette cascade métastatique.
L’équipe de Cédric Blanpain (Laboratoire des Cellules souches et Cancer, Faculté de Médecine) a apporté la preuve que les cellules tumorales initiant le processus métastatique subissent bien une EMT, mais que la transition inverse (MET) a également lieu sur le site de métastase. Les chercheurs ont aussi observé que la majorité des métastases présentent peu de signes d’EMT, soulignant le fait que le processus inverse, MET, est également important pour la croissance des métastases.
Cette étude appuie donc l’importance des états transitoires des cellules tumorales et de leur plasticité durant le processus métastatique. Elle invite également à la prudence sur certains modes de diagnostic et de traitement : un traitement anti-EMT pourrait favoriser la croissance de métastases dans les organes distants, tandis que certains marqueurs utilisés en clinique pour prédire le risque de métastase et la réponse aux traitements pourraient être non-optimaux. « De nouvelles méthodes utilisant des marqueurs qui reconnaissent les cellules tumorales circulantes présentant une EMT sont nécessaires », commente Tatiana Revenco, première auteure de l’étude.
Article rédigé par Georges Simmonds pour RT Flash
ULB
|
|
|
|
|
|
|
|
Une étude réalisée par des chercheurs de l'Université de Kyushu, au Japon, a montré que des taux sériques élevés d'acides gras trans sont associés à une hausse significative du risque de démence, dont la maladie d'Alzheimer (MA). Les participants avec les plus importantes concentrations d'acide élaïdique, un acide gras trans produit lors de l'hydrogénation partielle des huiles végétales, ont un risque de démence augmenté de 53 %. Ce groupe a également un risque augmenté de 43 % de développer une MA en comparaison avec les participants présentant les taux sériques les plus bas.
« Nous avons découvert que les niveaux les plus hauts taux sériques d'acide élaïdique étaient associés avec un risque plus important de développer des démences et la MA, après ajustement pour les facteurs de risque traditionnels et les prises alimentaires d'acides gras saturés et polyinsaturés » a expliqué Toshiharu Ninomiya (Université de Kyushu, Japon).
« De plus, la prise alimentaire rapportée par les participants de pain, margarine et confiseries ont été corrélées avec les niveaux d'acide élaïdique, bien que la corrélation ne soit pas très forte » a-t-elle ajouté. Des études précédentes ont déjà relié la consommation d'acide gras trans au développement de différentes pathologies comme les coronopathies ou le diabète.
Article rédigé par Georges Simmonds pour RT Flash
Medscape
|
|
|
|
|
|
|
|
L'accident vasculaire cérébral (AVC) est la première cause du handicap de l'adulte en France et la première cause de mortalité chez les femmes, selon l'Institut national de la santé et de la recherche médicale (Inserm). L'AVC est une défaillance de la circulation sanguine qui affecte une région plus ou moins importante du cerveau. Lorsque les cellules sont privées d'oxygène, elles meurent immédiatement et ne se régénéreront pas. D'où l'importance d'un traitement très rapide permettant de maximiser les chances de réduire les séquelles. Aujourd'hui, seule une personne sur dix récupère complètement, malgré les progrès médicaux.
C'est sur ce constat qu'une équipe pilotée par deux médecins de l'hôpital Foch (Suresnes) a créé et lancé l'application Alert'AVC à l'occasion de la journée mondiale des AVC le 29 octobre 2019. Elle permet au personnel médical de suivre en temps réel l'arrivée d'une victime dans un centre de soin spécialisé le plus proche, une fois le protocole d'urgence lancé. Elle est ainsi immédiatement prise en charge par l'équipe médicale.
« Chaque demi-heure perdue représente 15 % de chance de récupération en moins pour la victime », alerte Bertrand Lapergue, neurologue au sein de l'hôpital Foch et coordinateur scientifique du projet. Téléchargeable sur iOS et Android, elle nécessite une authentification précise des professionnels de santé, limitant ainsi tout risque d'abus.
Deux traitements existent actuellement pour les AVC, qui ne sont administrables qu'après une prise en charge rapide. La thrombolyse consiste à injecter une substance capable de dissoudre le caillot qui bouche l'artère du cerveau. La thrombectomie consiste à retirer le caillot mécaniquement avec un dispositif médical spécifique. Elle n'est efficace que si elle est effectuée dans les six heures après le début des symptômes.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Digitale
|
|
|
|
|
|
|
|
L’immunothérapie est une véritable révolution thérapeutique pour les patients atteints de cancers métastatiques comme le mélanome, le cancer du poumon ou de la vessie. Malheureusement, elle ne fonctionne que chez 10 à 25 % des patients pouvant en bénéficier.
Des chercheurs du Centre de Recherche de Cancérologie de Lyon (CRCL – Inserm / CNRS / Université Claude Bernard Lyon 1 / Centre Léon Bérard), du Centre Léon Bérard et de Gustave Roussy, ont montré qu’un vaccin de source commerciale permet de lever la résistance aux immunothérapies. Leur étude souligne que non seulement les vaccins de la gastroentérite peuvent provoquer la mort immunogénique des cellules cancéreuses in vitro mais aussi que l’association de ces vaccins et d’une immunothérapie provoque une puissante réponse immunitaire anti-tumorale in vivo là où l’immunothérapie seule n’était pas efficace.
Ces chercheurs ont eu l’idée d’utiliser des vaccins pour rendre l’immunothérapie efficace dans des cancers où elle ne l’est pas encore. Ce faisant, l’objectif était aussi d’augmenter le nombre de patients qui pourraient en bénéficier dans les cancers où elle a démontré son efficacité. « Dans cette étude, notre équipe de recherche s’est intéressée à des tumeurs pédiatriques telles que les neuroblastomes, cancers agressifs qui ne répondent pas aux immunothérapies existantes comme les anti-PD(L)1 et anti-CTLA4. Dans l’objectif de transformer la réponse de ces tumeurs à l’immunothérapie, nous avons utilisé différents vaccins comme sources d’éléments pro-inflammatoires car les agents pathogènes tels que les virus ont la capacité de stimuler directement des récepteurs de l’immunité innée » explique Aurélien Marabelle.
Dans un premier temps, les chercheurs ont testé in vitro 14 vaccins différents disponibles commercialement (ex. BCG, Cervarix, TicoVac,…) pour leur capacité à stimuler ces récepteurs de l’immunité innée. Parmi ces 14 vaccins, ils ont identifié ceux contre le Rotavirus (Rotarix, Rotateq), virus responsable des gastroentérites, comme ayant de fortes propriétés pro-inflammatoires. De façon inattendue, ils ont observé que ces derniers possédaient une fonction oncolytique, c’est-à-dire une capacité à préférentiellement infecter et tuer les cellules cancéreuses par rapport aux cellules normales et à induire ce que l’on appelle une mort immunogénique.
Les chercheurs ont aussi testé in vivo les vaccins les plus pro-inflammatoires dans des modèles de neuroblastomes pour lesquels les immunothérapies anti-PD(L)1 et anti-CTLA4 sont inefficaces chez l’homme. Pour cela, ils les ont injectés soit par voie systémique, soit directement dans les tumeurs (voie intratumorale).
Ils ont constaté que lorsque les vaccins contre le Rotavirus étaient injectés directement dans les tumeurs, certaines régressaient jusqu’à disparaître. Lorsqu’ils ont ensuite combiné l’injection vaccinale avec des immunothérapies anti-PD(L)1 ou CTLA4, toutes les tumeurs disparaissaient.
Alors qu’habituellement, les tumeurs ne répondent pas bien à l’un ou l’autre de ces traitements, la combinaison des deux génère une forte réponse immunitaire anti-tumorale systémique capable d’éradiquer les tumeurs injectées et les non-injectées. « Nos résultats démontrent que les Rotavirus contenus dans les vaccins contre la gastroentérite peuvent rendre sensibles à l’immunothérapie des tumeurs qui seraient naturellement résistantes », souligne Christophe Caux.
Les chercheurs ont aussi cherché à expliquer comment les Rotavirus exerçaient un effet stimulant sur le système immunitaire. Ils ont montré que l’activation d’un récepteur de l’immunité innée appelé RIG-I (retinoic acid induced gene I) était essentielle à l’effet synergique des Rotavirus intratumoraux avec les immunothérapies. « Les résultats de cette étude confirment le grand intérêt des stratégies d’immunisation intratumorale pour des cancers réfractaires à l’immunothérapie, en particulier en cancérologie pédiatrique mais aussi chez l’adulte » conclut Sandrine Valsesia-Wittmann.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l’Institut de biologie Paris-Seine (IBPS-Sorbonne Université/CNRS), dirigée par Rachel Sherrard, professeure à Sorbonne Université, en collaboration avec l’Université d'Australie-Occidentale, le National Institute of Mental Health du Maryland et l’Institut de la Longévité (hôpital Charles Foix-AP-HP) a étudié le rôle de la stimulation magnétique de faible intensité dans le mécanisme de réparation du cerveau.
Ces travaux mettent pour la première fois en évidence le rôle clé d’une protéine impliquée dans ce mécanisme de réparation : le cryptochrome. Ces recherches montrent que, si toutes les fréquences de stimulation ne sont pas efficaces, certaines en revanche le sont particulièrement.
Ce pouvoir de réparation constitue une découverte inattendue, les chercheurs ayant identifié pour la première fois un récepteur pour ces stimulations magnétiques : le cryptochrome. Présente dans l'ensemble de l'organisme, cette protéine est notamment impliquée dans le rythme circadien.
En proposant que les champs magnétiques agissent par le biais du cryptochrome pour activer des cascades de signalisation cellulaire, ces travaux créent un cadre nouveau pour comprendre les mécanismes sous-jacents à la neuroplasticité induite par la stimulation électromagnétique. Ils ouvrent également des pistes prometteuses pour optimiser la stimulation électromagnétique et développer des traitements efficaces pour les différentes maladies neurologiques.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Des chercheurs de l’Institut polytechnique Rensselaer (TRoy, état de New York), dirigés par Pankaj Karande, ont mis au point une technique d'impression en 3D de la peau vivante, qui intègre des vaisseaux sanguins. Jusqu'à présent, l’absence de système vasculaire fonctionnel dans les greffons de peau constituait un obstacle important à cette intégration.
Ces chercheurs ont montré qu'en ajoutant certains éléments clés, les cellules commencent à communiquer et à former une structure vasculaire biologiquement pertinente en l’espace de quelques semaines. Ces éléments clés incluent notamment : des cellules endothéliales humaines (qui tapissent l’intérieur des vaisseaux sanguins), des péricytes humaines (qui enveloppent les cellules endothéliales), des kératinocytes ainsi que du collagène animal et d’autres cellules structurelles généralement présentes dans les greffons cutanés. "Nous avons été agréablement surpris de constater que, dès que nous abordons cette complexité, la biologie prend le relais et commence à se rapprocher de ce qui existe dans la nature », souligne le Docteur Karande.
Une fois que l’équipe de Yale a greffé la nouvelle peau sur un type spécial de souris, les vaisseaux sanguins imprimés par l’équipe de Rensselaer ont commencé à communiquer et à se connecter avec les vaisseaux naturels de la souris. « C’est extrêmement important, car nous savons qu’il y a en fait un transfert de sang et de nutriments vers le greffon, ce qui le maintient en vie », a déclaré Karande.
Afin de rendre la peau artificielle utilisable au niveau clinique, les chercheurs doivent pouvoir éditer les cellules du donneur en utilisant la technologie CRISPR, afin que les vaisseaux puissent s’intégrer et être acceptés par le corps du patient. « Nous n’en sommes pas encore à ce stade, mais nous nous en rapprochons à grand pas », a déclaré Karande, qui ajoute, « Cette avancée met en évidence le vaste potentiel de la bioimpression 3D dans la médecine de précision, où des solutions peuvent être adaptées à des situations spécifiques et éventuellement aux individus ».
Article rédigé par Georges Simmonds pour RT Flash
Science Daily
|
|
|
|
|
Une étude réalisée entre 2005 et 2014 sur 3000 patients de l'hôpital Del Mar de Barcelone par une équipe hispano-américaine (INIM et Brown University) a montré que les personnes vivant dans des endroits bruyants ont 30 % de risques en plus d’être victimes d’un AVC ischémique. En revanche, celles qui demeurent dans des endroits plus tranquilles diminuent ce même risque de 25 %.
L'étude montre également que le fait d'habiter un endroit où le bruit dépasse les recommandations édictées par l’OMS (53 décibels le jour et 45 la nuit) peut entraîner des AVC plus graves que dans d’autres zones. L’auteure de l’étude souligne que « plus les espaces verts sont nombreux, moins les AVC sont graves. Et plus il y a de bruit, plus ils sont sévères ». Cela suggère que des facteurs autres que ceux que l’on associe traditionnellement aux AVC peuvent jouer un rôle indépendant dans la maladie.
Article rédigé par Georges Simmonds pour RT Flash
Science Daily
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|