|
|
|
|
|
NUMERO 710 |
|
|
|
|
|
|
|
Edition du 12 Juillet 2013
|
|
|
|
|
Edito
La Révolution : ce sont les urbains qui vont la connaître
Une étude qui vient d’être publiée par Navigant Research nous révèle que le nombre de citadins augmentera de 75 % dans le monde d’ici 2050 et passera de 3,6 à 6,3 milliards d’individus.
Au milieu de ce siècle, deux terriens sur trois seront donc devenus urbains, ce qui supposera de relever à une échelle inédite de nouveaux défis dans les domaines de l’énergie, de l’urbanisme, de l’environnement, des transports ou encore de la sécurité (Voir rapport).
Ce rapport précise qu’en 2025 la planète comptera 37 mégalopoles, dont chacune aura une population supérieure à 10 millions d’habitants. Sans surprise, 22 de ces villes se trouveront en Asie.
L’OCDE, pour sa part, rappelle que les grandes mégapoles mondiales, qui occupent aujourd'hui 2 % de la surface du globe, consomment les trois quarts de l’énergie produite par la planète et émettent 80 % du CO2 d’origine anthropique.
Pour surmonter les gigantesques problèmes que va entraîner la concentration de plus de 6 milliards d’individus dans des pôles urbains qui dépasseront parfois les 30 millions d’habitants, les états mais également les collectivités territoriales et les entreprises vont devoir investir des sommes colossales, non seulement pour réaliser ou moderniser les indispensables infrastructures physiques mais également pour concevoir et mettre en place une multitude de réseaux interactifs permettant une gestion intelligente, réactive et efficiente de ces mégapoles tentaculaires.
Le rapport de Navigant Research prévoit d’ailleurs que le marché des technologies urbaines passe de 6,1 milliards de dollars par an en 2012 à 20,2 milliards de dollars en 2020, ce qui correspond à un triplement en moins de 10 ans !
Parallèlement, il y aura environ 30 milliards d’objets connectés sans fil dans le monde en 2020, d’après l’évaluation d’ABI Research et toutes les grandes mégapoles de la planète vont être profondément transformées par l’arrivée de cet « Internet des objets » qui va métamorphoser les villes en système auto organisé, en interaction permanente avec leurs habitants.
C’est dans ce contexte que La Métropole Nice Côte d’Azur, la ville de Nice en partenariat avec Cisco, a inauguré récemment le premier « boulevard connecté » afin de combiner ces deux concepts : l’Internet des objets et la gestion de l’espace urbain.
Cette synergie nouvelle doit permettre une gestion administrative, environnementale et énergétique du territoire plus efficiente et moins coûteuse pour la collectivité. Mais il s’agit également pour cette métropole de conforter son image « high-tech » et de développer son attractivité économique de manière à attirer de nouvelles entreprises.
Dans les principales artères qui traversent le centre-ville, plus de 200 capteurs ont été installés dans la chaussée, sur les containers contenant les déchets et sur les lampadaires assurant l’éclairage public.
Ces capteurs qui ont une durée de vie de plus de 10 ans, transmettent en permanence une multitude d’informations très utiles, grâce à un réseau Wifi, au centre de gestion municipale et aux habitants. Mais ce système -et c’est là la grande innovation- ne se contente pas de retransmettre en vrac l’ensemble des données obtenues. Il est capable, grâce un outil logiciel spécifique extrêmement sophistiqué, de trier, d’analyser et de hiérarchiser ces données pour les transformer en informations utiles à forte valeur collective.
L’idée à terme est que chaque objet de l’environnement urbain, route, arbres, bâtiment, panneaux de signalisation, feux tricolores etc., devienne un véritable collecteur d’informations et « veilleur » autonome, capable de repérer une anomalie dans son proche environnement et de faire remonter cette information vers la plate-forme de gestion municipale qui générera l’action la plus appropriée après analyse de la situation.
Ce type de gestion interactive de la ville agit simultanément sur trois niveaux : en premier lieu il gère les équipements municipaux de manière plus efficace et plus fine, en tenant compte en temps réel de l’évolution de l’environnement. Il s’agit d’apporter à chaque habitant un service beaucoup plus personnalisé, en optimisant en permanence les ressources disponibles.
Mais à un second niveau, cet outil constitue également un système d’évaluation incomparable de l’action municipale. Avec ce système, il devient en effet possible de procéder à des micro- expérimentations dans une rue ou un quartier et d’en évaluer la pertinence très rapidement de manière à orienter les décisions publiques.
Enfin à un troisième niveau, ce système permet une connaissance beaucoup plus complète des problèmes spécifiques auxquels sont confrontés les habitants d’un secteur donné et il devient possible alors de mettre en place une politique d’anticipation sociale visant à agir le plus en amont possible quand une personne, une famille ou les habitants d’un quartier sont confrontés à des difficultés particulières.
Les impératifs d’efficacité publique et de maîtrise des coûts économiques rejoignent ici la nécessité d’une approche sociale plus globale et plus préventive des nouveaux problèmes qui caractérisent les grandes métropoles.
Parmi les activités qui connaissent la mutation la plus rapide sous l’effet de ces nouveaux outils technologiques, on trouve évidemment le secteur stratégique des déplacements et des transports urbains. Dans ce domaine, des expérimentations foisonnent partout en France.
À Valence par exemple, il sera possible, à la rentrée 2013, de régler son billet de bus en achetant un « sticker-transport », à coller sur son mobile. Dans ce cas de figure, la collectivité a fait un choix pragmatique et a opté pour le tag RFID, une solution plus simple et plus pratique, pour l’instant, que le paiement sans contact (NFC) qui nécessite un smartphone de nouvelle génération.
Ce système permettra également aux usagers de recharger directement leur abonnement à partir de leur mobile et de faire l’objet de contrôles électroniques, y compris quand leur téléphone sera éteint. Mais l’outil proposé à Valence va plus loin et intégrera également un simulateur informatique d’itinéraire permettant en quelques secondes d’optimiser un déplacement en transports en commun sur l’ensemble de l’agglomération.
Le public jeune et souvent « Geek » n’a pas été oublié et pourra contacter un agent virtuel, baptisé Théa, pour lui poser directement des questions.
A Strasbourg, la ville a fait un choix un peu différent et propose à présent toute une panoplie de services directement réglables à l’aide du paiement sans contact.
Les Strasbourgeois peuvent ainsi régler directement leur redevance de stationnement dans toute l’agglomération à l’aide de ce mode de paiement appelé à se généraliser rapidement puisque les puces NFC équipent la quasi-totalité des nouveaux smartphones.
Mais cette technologie sans fil permet également le règlement électronique des achats auprès de quelque 5 000 commerçants du département.
Le troisième volet, sans doute le plus prometteur, de ce nouvel outil, s’appelle StrasPlus. Son principe de fonctionnement est très simple : en passant à proximité d’un des 1 400 points de connexion de l’agglomération strasbourgeoise, toute personne équipée d’un smartphone peut avoir accès à une multitude d’informations locales très utiles et très complètes concernant la circulation urbaine, le tourisme ou le patrimoine.
À Lyon, la municipalité a également présenté récemment tout un ensemble de projets et d’expérimentations visant à utiliser les technologies numériques pour améliorer l’efficacité urbaine et la qualité de vie des habitants.
L’un de ses projets, Optimod'Lyon est particulièrement ambitieux. Il consiste en une plate-forme intégrant l’ensemble des informations concernant les différents modes de transport. Ce système, qui résulte d’une coopération technologique et financière entre une dizaine de partenaires publics et privés devrait permettre, à terme, une prévision fine et fiable des flux de déplacements urbains, qui permettra d’agir plus efficacement en cas de problèmes.
Une autre application, complémentaire de la première, repose sur le GPS et permettra à partir de la fin de l’année de connaître les emplacements de stationnement disponibles et de calculer l’itinéraire de déplacements urbains optimal, en fonction des caractéristiques du trafic.
Il faut enfin évoquer l’exemple remarquable de Besançon, une ville moyenne (120 000 habitants) qui a fait le choix il y a déjà plus de 20 ans, d’opter pour une plate-forme logicielle unique et intégrée conçue par IBM.
Depuis 2011, cette plate-forme, après une montée en puissance progressive intégrant les différents services et activités de la ville, gère l’ensemble des prestations administratives et techniques de cette commune, ce qui permet à la fois une réactivité et une efficacité beaucoup plus grande dans l’action des services municipaux et une évaluation en temps réel des moyens disponibles et des coûts collectifs que représentent les différents services de la ville.
Partout en Europe, les villes font assaut d’imagination pour développer et proposer à leurs habitants de nouveaux services numériques destinés à améliorer leur vie quotidienne.
Il n’est bien sûr pas question ici de pouvoir recenser ces myriades d’expérimentations mais certaines méritent d’être évoquées. À Santander par exemple, une métropole de 200 000 habitants qui est la capitale régionale de la Cantabrie, au nord de l’Espagne, la municipalité a fait installer plus de 12 000 capteurs qui sont disséminés dans les bâtiments municipaux, les chaussées, les bus et les lampadaires. Ce réseau électronique permet de recueillir de nombreuses informations qui sont ensuite transmises à une plate-forme de gestion municipale.
Mais là où le système devient original, c’est qu’il permet aux habitants d’accéder librement à l’ensemble de ces informations en utilisant leur mobile.
L’application la plus populaire dans cette ville connectée s’appelle « Prenons le pouls de la ville ». Elle incite directement les habitants à signaler aux services municipaux les anomalies, incident ou problème qu’ils pourraient remarquer. Pour ce faire, il suffit d’envoyer un SMS ou une photo vers un service dédié. Ce « cahier des doléances » électroniques est public et peut être consulté par tous, ce qui incite, on s’en doute, la municipalité à être très réactive dans ses interventions et ses actions pour résoudre les problèmes signalés…
En Grande-Bretagne, la ville de Bristol est également pionnière dans l’utilisation de ces technologies numériques au service des habitants (Voir Connecting Bristol).
Cette agglomération de 420 000 habitants vient d'installer de nombreux équipements connectés et interactifs (bus, boîtes aux lettres, lampadaires). Il suffit de téléphoner directement à l’un de ces objets en appelant le numéro indiqué sur sa surface pour pouvoir accéder à une multitude d’informations vocales et textuelles concernant les différents services municipaux.
Mais l’un des enjeux majeurs de cette transition vers les villes « intelligentes » sera bien sûr la réduction draconienne de la pollution urbaine et des émissions de gaz à effet de serre qui accélèrent dangereusement le réchauffement climatique.
Une récente étude européenne, réalisé sur 9 métropoles situées dans différents pays de l’Union, a montré que les principaux polluants liés au transport, dont les particules fines, réduisaient de manière significative l’espérance de vie des citadins en cas d’exposition prolongée. Un calcul par extrapolation a permis de calculer qu’en France cette pollution entraîne probablement autour de 15 000 décès anticipés par an.
À ces graves conséquences sanitaires et médicales, longtemps sous-estimées, il faut ajouter le coût économique et social collectif considérable lié à la saturation des flux de transports urbains. Une étude récente du cabinet britannique CEBR a en effet montré que le coût global, direct et indirect, des embouteillages en France (hors coût lié aux dépenses de santé) était de l’ordre de 5,6 milliards d’euros par an, soit plus de 600 € pour chaque foyer se déplaçant en voiture !
La mutation rapide de nos villes en systèmes auto organisés, interactifs et intelligents devrait permettre également de révolutionner les déplacements urbains en les rendant à la fois beaucoup plus efficaces, plus sobres sur le plan énergétique et beaucoup moins polluants pour la planète.
Il faut en effet bien comprendre que des citadins ne renonceront définitivement à l’usage de la voiture en ville que lorsqu’ils auront à leur disposition d’autres alternatives et solutions aussi confortables et souples en termes de déplacements. Or c’est précisément ce que commencent à pouvoir offrir certaines villes qui ont anticipé cette mutation de la mobilité et proposent à l’ensemble de leurs habitants des solutions de transports souples, personnalisées et répondant mieux à l’extrême diversité des demandes.
Mais quels que soient les efforts que feront les métropoles pour diminuer la place de la voiture particulière et favoriser l’usage d’une large panoplie de transports collectifs ou collaboratifs (de type covoiturage intelligent), la réduction massive du coût énergétique et environnemental des déplacements urbains ne pourra être obtenue qu’en actionnant également le puissant levier de l’urbanisme et de l’aménagement urbain.
Un seul exemple montre à quel point les choix urbains sont déterminants sur le plan énergétique environnemental : la comparaison entre deux villes de population comparable, Barcelone en Espagne et Atlanta aux États-Unis. Barcelone est caractérisée par un tissu urbain très dense, de type méditerranéen et la consommation d’énergie par habitant y est plus de 10 fois inférieure qu’à Atlanta, une ville tentaculaire, qui s’étale sur une surface 25 fois plus grande que la capitale de la Catalogne.
Les responsables politiques devront donc avoir le courage d’expliquer à leurs concitoyens qu’il sera impossible de gagner la bataille de l’environnement, de la lutte contre le réchauffement climatique et des transports fluides et propres, sans ouvrir le débat sur la densification urbaine et la conception de villes en trois dimensions, articulées autour d’éléments urbains de très grande hauteur qui pourront, grâce à la conception de bâtiments intelligents et à une végétalisation omniprésente et intégrée à ces immeubles, offrir une très grande qualité de vie à leurs habitants, tout en réduisant considérablement l’ensemble des nuisances inhérentes au fonctionnement urbain, pollution, consommation énergétique, bruit, insécurité, solitude…
En dernière analyse, la transition vers ces villes intelligentes ne relève donc pas d’une fascination technophile ou d’une utopie technologique mais bien d’une nécessité absolue : reconstruire et réinventer une nouvelle « urbanité » qui combine efficacité économique énergétique, innovations technologiques, création culturelle et liens sociaux.
Je crois donc que, loin d’être des mégapoles froides et inhumaines, les villes du futur, si nous faisons les choix sociaux et politiques consistant à mettre l’homme au cœur de leur invention, seront, en dépit d’une technologie ubiquitaire et omniprésente, des lieux où se développeront et s’exprimeront de nouveaux réseaux de coopération et de solidarité et dans lesquels pourront s’épanouir ce qui a toujours fait la singularité et la richesse des villes depuis la Grèce antique : l’imagination créatrice et l’innovation dans tous les domaines d’activités humaines.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs américains de l'Université Vanderbilt à Nashville (Tennessee), dirigés par le professeur James Crowe, ont découvert que des nanotubes composés de molécules d’or enrobées de protéines peuvent déclencher une réponse immunitaire puissante contre certains virus très pathogènes, comme le virus respiratoire syncytial, qui infecte environ 1 % de la population mondiale chaque année et provoque plusieurs centaines de milliers de morts par an dans le monde.
L' agressivité ce type de virus est notamment liée à l'existence d'une protéine spécifique, appelée F, qui tapisse la surface du virus. Cette protéine va agir comme un véritable cheval de Troie et permettre au virus de pénétrer dans les cellules. Jusqu'à présent, les biologistes n'ont pas réussi à mettre au point un vaccin spécifiquement actif contre cette protéine F.
Mais grâce à de minuscules nanotubes d'or, une taille très proche de celle du virus visé (environ 20 nanomètres de large et 55 nanomètres de long), les chercheurs ont pu concevoir une espèce de "Nanoleurre" qui permet de cibler spécifiquement cette protéine F et de l'exposer aux cellules dendritiques, une catégorie de cellules immunitaires pouvant combattre ce type de virus.
Ces recherches ont pu montrer qu'en combinant l'action de ces nanotubes enduits de protéine F avec celle des cellules dendritiques, il est possible de provoquer une forte réponse immunitaire spécifiquement orientée contre ce virus.
Selon le professeur Crowe, cette approche thérapeutiques nouvelle et prometteuse pourrait changer la donne médicale dans la lutte contre ce virus respiratoire syncytial, principale cause de pneumonie virale chez les enfants.
Ce chercheur est en outre persuadé que ce type de nanothérapie possède un vaste champ potentiel d'application et pourra dans le futur être utilisé de manière efficace contre de nombreux virus ou microbes.
Article rédigé par Georges Simmonds pour RT Flash
IOP
NanoWerk
|
|
|
|
|
|
|
|
Des chercheurs de l'Ecole polytechnique fédérale de Lausanne et de l'Université britannique de Cambridge ont mis au point des colloïdes recouverts d'ADN qui peuvent servir de "briques" d'assemblage pour constituer de nouveaux matériaux.
Les colloïdes possèdent la propriété de se répartir de manière homogène dans une autre substance. La peinture, la mousse à raser ou encore des sprays sont des exemples de colloïdes utilisés dans la vie courante. Ces colloïdes possèdent la capacité remarquable de s'autoassembler, c'est-à-dire de s'agglomérer spontanément sous la forme de structures stables.
Cette propriété est évidemment particulièrement convoitée dans de nombreux domaines industriels et notamment dans le secteur pharmaceutique qui cherche à mettre au point de nouvelles techniques permettant de contrôler de manière très fine l'administration de molécules thérapeutiques au niveau cellulaire.
Ces colloïdes se composent de larges particules dispersées dans un solvant liquide. C'est cette structure particulière qui donne aux colloïdes des propriétés uniques et leur permet notamment de produire spontanément des structures stables, capables d'interagir avec leur milieu de dispersion. Bien que l'autoassemblage de ces structures ne nécessite aucune énergie externe, il reste lié aux variations de certains facteurs environnementaux, comme la température ou l'intensité lumineuse.
Dans cette étude, les chercheurs ont montré que des interactions contrôlées entre particules de deux colloïdes différents permettaient la formation de nouvelles structures.
Ces travaux ont également permis de produire des structures autoassemblées qui dépendent fortement des variations de température. Comme l'explique Giuseppe Foffi qui a dirigé ces recherches, « tout se passe comme si ces nouvelles structures gardaient en mémoire le processus de leur élaboration ».
En utilisant des colloïdes enduits d'ADN, ces chercheurs ont réussi à contrôler l'autoassemblage de structures produites par deux espèces différentes de colloïdes. Ces travaux ont également montré que cette technique ne se limite pas aux nanocomposants et peut être utilisée pour des colloïdes de différentes tailles.
Ces recherches pourraient trouver de multiples applications, notamment en pharmacologie et en médecine, avec la création de patchs intelligents pouvant libérer de manière parfaitement contrôlée des molécules thérapeutiques, en fonction de facteurs tels que l'acidité, la température ou la luminosité.
Article rédigé par Georges Simmonds pour RT Flash
RSC
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Pour la première fois, une équipe de recherche du CEA , du Collège de France, du CNRS et de l’Université Joseph Fourier à Grenoble, vient de mettre au point un procédé inédit et efficace qui permet d’activer in vitro une enzyme, l’hydrogénase, présente dans des microorganismes qui utilisent l’hydrogène comme source d’énergie. C'est en combinant la chimie biomimétique et la chimie des protéines que ces scientifiques ont réalisé cette remarquable avancée.
Cette percée scientifique devrait permettre de mieux utiliser la large panoplie d'enzymes hydrogénases présente dans la nature et ouvre également la voie à la conception d'enzymes artificielles qui pourraient être utilisées comme catalyseur dans les piles à combustible ou dans la production massive d'hydrogène à partir d'énergies renouvelables.
L'utilisation massive d'hydrogène comme vecteur énergétique se heurte pour l'instant à un obstacle technologique de taille : elle nécessite le recours de catalyseurs composés de métaux précieux et très coûteux.
Heureusement, il existe dans la nature des micro-organismes parfaitement adaptés à la production d'hydrogène car ils utilisent même ce gaz comme source d’énergie. Ces micro-organismes ont développé, au fil de l'évolution, un type de catalyseur - les hydrogénases - reposant sur des métaux abondants comme le fer.
Ces hydrogénases font aujourd'hui l'objet d'intenses recherches partout dans le monde car leur maîtrise pourrait permettre de remplacer le platine dans les piles à combustible productrices d'électricité à partir d'hydrogène.
C'est dans ce contexte que les chercheurs français ont découvert un réactif capable de transformer de manière très efficace une hydrogénase inactive en hydrogénase active.
Ce réactif, composé de fer et d’une protéine stabilisatrice, est capable de réagir avec l’hydrogénase inactive en lui transférant la partie biomimétique synthétique. La maîtrise de cette activation des hydrogénases lève un obstacle majeur à la production industrielle d'hydrogène à partir d'énergies renouvelables.
Cette biotechnologie pourrait également permettre, à plus long terme, de concevoir de toutes pièces des enzymes synthétiques et des hydrogénases artificielles qui pourraient être utilisées comme catalyseurs efficaces et peu coûteux dans la production propre et massive d'hydrogène.
Article rédigé par Georges Simmonds pour RT Flash
Nature du 26-06-2013
UJF
|
|
|
|
|
|
|
|
Des chercheurs du célèbre MIT ont développé une solution particulièrement ingénieuse pour essayer de stocker de manière massive le surplus d'électricité produite par les éoliennes marines.
Une des grandes difficultés de l'intégration de l'électricité éolienne dans les réseaux de distribution réside dans son caractère intermittent et difficilement prévisible. Il est donc absolument nécessaire de mettre au point de nouvelles technologies permettant le stockage massif de l'électricité excédentaire de manière à pouvoir injecter plus tard cette énergie dans le réseau en fonction de la demande.
L'idée originale des chercheurs du MIT consiste à installer au fond de la mer des sphères de béton remplies d’eau de mer en dessous des éoliennes flottantes.
D'un diamètre d'environ 30 m, pour 3 m d'épaisseur, ces sphères seraient immergées en moyenne à 700 m de profondeur et fonctionneraient selon le principe physique de la pompe : pendant les pics de production, l’électricité excédentaire alimenterait une pompe qui viderait l’eau de la sphère.
En revanche, dans le cas où la demande d'énergie serait supérieure à la capacité de production de ces éoliennes, l’eau de mer serait introduite dans la sphère, actionnant une turbine couplée à un générateur pour produire de l’électricité.
Selon les chercheurs américains, une seule de ces sphères pourrait emmagasiner 6 MW h d’électricité. En théorie, il faudrait donc environ 1000 éoliennes marines équipées chacune d'une sphère de stockage pour remplacer une centrale nucléaire thermique.
Outre sa simplicité et sa fiabilité, cette technologie présente l'avantage de pouvoir être mise en œuvre très rapidement, ce qui n'est pas le cas des réacteurs nucléaires. Par ailleurs, ces sphères pourraient également stocker l’électricité produite par des sources d’énergie renouvelables terrestres.
Enfin, ces sphères contribueraient à solidifier l'ancrage des futures éoliennes marines géantes. Néanmoins, la construction industrielle de ces sphères nécessiterait de très grandes quantités de béton et entraînerait de fortes émissions de CO2 dans l'atmosphère. Conscients de ce problème, les chercheurs américains prévoient d’utiliser les déchets de combustion des centrales à charbon américaines pour la construction des sphères.
Le coût de construction d’une sphère a été évalué à 12 millions de dollars par l'étude du MIT, soit un kilowattheure à 0,06 dollar. L'étude précise enfin que l'utilisation généralisée de cette technologie de stockage pourrait à terme assurer un tiers de la production électrique américaine.
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
Pour la première fois, une équipe de recherche du CEA, du Collège de France, du CNRS et de l'Université Joseph Fourier à Grenoble, vient de mettre au point un procédé inédit et efficace qui permet d'activer in vitro une enzyme, l'hydrogénase, présente dans des microorganismes qui utilisent l'hydrogène comme source d'énergie.
Ceci a été possible grâce à la combinaison d'approches de chimie biomimétique et de chimie des protéines. En termes d'applications, ces résultats permettront d'exploiter la grande variété des enzymes hydrogénases issues de la biodiversité, voire à plus long terme « d'inventer » des enzymes artificielles, catalyseurs potentiels pour les piles à combustible ou pour la production d'hydrogène à partir d'énergies renouvelables.
La production d’hydrogène par électrolyse de l’eau et son exploitation ultérieure comme carburant, par exemple dans les piles à combustibles, offrent des perspectives intéressantes dans le domaine du stockage des énergies, notamment renouvelables. Mais ces techniques à la fois performantes et prometteuses nécessitent l’utilisation de catalyseurs à base de métaux nobles, chers et peu abondants, comme le platine.
Il faut donc trouver des solutions alternatives. Certains microorganismes, notamment des micro-algues, sont capables de produire de l’hydrogène ou d’utiliser l’hydrogène comme source d’énergie pour alimenter leur métabolisme. Ils utilisent comme catalyseur des métalloenzymes, à base de métaux abondants comme le fer.
Ces métalloenzymes douées de propriétés catalytiques remarquables sont appelées hydrogénases. Elles représentent aujourd’hui des alternatives naturelles au platine pour l’élaboration de bioélectrolyseurs ou de biopiles à combustible de plus en plus efficaces.
Pour réaliser cette percée, les chercheurs se sont appuyés sur une approche multidisciplinaire combinant chimie organométallique et biomimétique, chimie des protéines et spectroscopies. Cette activation « artificielle » des hydrogénases ouvre de formidables perspectives tant en termes de recherche fondamentale qu’en termes d’applications.
Article rédigé par Georges Simmonds pour RT Flash
Chem Feeds
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
Une équipe de recherche japonaise associant des chercheurs de l'Université de Tokyo, de Toyota, et de l'Agence d'exploration spatiale (Jaxa), dirigée par Tomotaka Takahashi, a développé un petit robot, appelé Kirobo, destiné à dialoguer avec le spationaute nippon Koichi Wakata qui doit se rendre dans la station spatiale internationale pour effectuer différentes expériences dans le laboratoire "Kibo", conçu par les scientifiques japonais.
Ce robot peut non seulement se déplacer mais est également capable de reconnaître les visages. Kirobo est directement inspiré d'"Astro le petit robot", un célèbre personnage de manga imaginé dans les années 50 par le dessinateur Osamu Tezuka.
L'objectif de ce projet est d'évaluer l'impact psychologique de ce robot sur des sujets exposés à un stress important, et ce, pendant de longues périodes d'isolement.
Article rédigé par Georges Simmonds pour RT Flash
The Guardian
Akihabara news
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les avancées thérapeutiques contre la sclérose en plaques se succèdent à un rythme soutenu. Après l'arrivée du fingolimod et du natalizumab en traitement de seconde ligne, les malades attendent avec impatience les nouvelles formes orales de ces médicaments, le fumarate et le tériflunomide.
Par ailleurs, un autre anticorps monoclonal, l’alemtuzumab, spécifique d'une glycoprotéine située à la surface des lymphocytes (CD52) devrait être bientôt disponible.
Enfin, un autre anticorps monoclonal porte de grands espoirs, le daclizumab. Cette effervescence thérapeutique est d'autant plus intéressante qu'elle porte sur des médicaments qui agissent sur des cibles immunitaires différentes. Ainsi, le daclizumab est un anticorps monoclonal humanisé spécifique du récepteur CD25 diminuant l’activation immunitaire via l’interleukine 2.
S'agissant du daclizumab, l'étude en double aveugle contre placebo a porté sur plus de 600 patients : 204 sous placebo, 208 sous daclizumab HYP 150 mg et 209 sous daclizumab HYP 300 mg. Le produit était injecté par voie sous-cutanée une fois toutes les quatre semaines et pendant un an.
Résultats : une diminution du taux de poussées dans les deux groupes traités (réduction de 50 à 54 %) ainsi qu'une diminution du nombre de lésions.
Article rédigé par Georges Simmonds pour RT Flash
The Lancet
|
|
|
|
|
|
|
|
Des chercheurs canadiens de l'Université McGill et de l'Université de Calgary, viennent de découvrir le rôle ambigu du système immunitaire dans la lutte contre les cellules cancéreuses.
Selon ces recherches, certains globules blancs, chargés de combattre les infections, pourraient également favoriser la propagation des cellules cancéreuses dans l'organisme et la formation de métastases.
« Nous avons pu, pour la première fois, identifier un mécanisme nouveau de propagation du cancer et nous pensons que certains traitements existants utilisés pour d'autres pathologies que le cancer pourraient prévenir ce mécanisme de propagation du cancer ou les métastases » précise le Professeur Lorenzo Ferri, qui dirige ces travaux.
Ce qui a mis la puce à l'oreille de ces chercheurs, c'est le fait qu'une infection grave, survenant par exemple à la suite d'une intervention chirurgicale, accroît sensiblement le risque de métastases. Poursuivant leurs investigations à partir de ces observations, les chercheurs ont étudié de plus près les neutrophiles, une catégorie de globules blancs spécialisés dans la lutte contre les infections.
Travaillant sur des cultures cellulaires de souris, les chercheurs ont notamment pu établir l'existence d'un lien de causalité entre l'infection, la réponse des globules blancs (inflammation) et le développement des métastases.
Dans ce mécanisme, les neutrophiles, pour combattre une infection microbienne, produisent des structures particulières, baptisées « pièges extracellulaires du neutrophile » (NETs en anglais).
Ces pièges ressemblent à des toiles d'araignée qui permettent la capture d'agents pathogènes menaçant l'organisme. Mais les chercheurs ont découvert, en travaillant sur des modèles animaux, que ces pièges à neutrophiles, en cas d'infections, capturaient également les cellules cancéreuses qui circulaient. Le problème, c'est que ces pièges, non seulement ne détruisent pas les cellules cancéreuses piégées mais les activent et leur permettent de se disséminer pour aller former des métastases.
Ces recherches ont également pu montrer que certains médicaments déjà utilisés dans certaines pathologies avaient la capacité de désactiver ces pièges extracellulaires du neutrophile. Administrés sur des souris, certains de ces médicaments ont permis de réduire très sensiblement le développement des cellules cancéreuses et la formation de métastases à distance.
Autre élément très intéressant : les expérimentations sur la souris ont également montré que ce mécanisme semble être impliqué dans de nombreux types de cancer.
En découvrant cette piste d'action complètement nouvelle qui permet la propagation des cellules cancéreuses, ces chercheurs ont ouvert une nouvelle voie thérapeutique particulièrement prometteuse dans la prévention et le traitement des métastases, l'un des défis majeurs de la cancérologie.
Article rédigé par Georges Simmonds pour RT Flash
CI
Science Daily
CBC
|
|
|
|
|
|
|
|
Des chercheurs américains de l'Université de Californie à San Francisco, dirigés par Claiborne Johnston, ont montré, dans le cadre d'un essai clinique réalisé en Chine, qu’en combinant un anticoagulant avec de l'aspirine, on pouvait réduire d'environ 30 % les risques de survenue d’une autre attaque, par rapport au traitement classique qui repose sur la prise d'aspirine seule.
L'accident vasculaire cérébral se traduit par une interruption brusque de la circulation du sang dans notre cerveau et entraîne souvent une hémorragie cérébrale qui peut être fatale. Selon l'OMS, on estime qu'au niveau mondial, 2,5 millions de personnes sont victimes chaque année d'un AVC, soit une toutes les cinq secondes. En France, cette pathologie augmente avec le vieillissement de la population et touche à présent 130 000 personnes par an, dont le quart décède des suites de cette attaque cérébrale.
Après un AVC, la rapidité de la prise en charge médicale constitue un facteur majeur de chances de récupération et de réduction des dommages ultérieurs pour le cerveau.
Mais il faut également prévenir le risque de récidive qui malheureusement va toucher un patient sur six dans les trois mois qui suivent son premier AVC. Actuellement, le traitement standard consiste à prescrire aux patients de l'aspirine pendant trois mois.
Dans ce travail, les chercheurs américains ont réalisé une vaste étude en double aveugle sur 5 000 Chinois admis à l’hôpital suite à une attaque cérébrale légère. La moitié des patients s'est vue administrer un traitement qui combinait du Plavix, un anticoagulant commercialisé par le laboratoire américain Bristol Meyers Squibb et le français Sanofi et de l’aspirine ; l'autre moitié a reçu uniquement de l'aspirine.
Aux termes de l'étude, les chercheurs ont constaté que les patients ayant bénéficié du traitement combiné avaient un risque de récidive diminué de 30 % par rapport au traitement standard comportant uniquement de l’aspirine.
Sous réserve que ces résultats soient confirmés par de nouvelles études, ce traitement combiné pourrait donc devenir la nouvelle référence thérapeutique dans la prévention du risque de récidive d'AVC.
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
|
|
|
|
|
|
Des chercheurs japonais de l'Université de Tokyo, dirigés par le professeur Kazunori Kataoka, ont mis au point des nanocapsules capables de libérer des molécules thérapeutiques contre le cancer du pancréas de manière ciblée. Les premiers essais réalisés sur la souris semblent encourageants.
Ces nanocapsules sont constituées de minuscules sphères en polymères, d'un diamètre d'environ 1 nm. Ces Nanocapsules sont conçues de manière à pouvoir "embarquer" toute une panoplie de molécules à leur surface ou dans leur structure.
La technique développée par les chercheurs japonais permet également un ciblage moléculaire très précis de la cible à atteindre grâce à l'identification spécifique des récepteurs se trouvant à la surface des cellules cancéreuses.
Le grand avantage de ces nanovecteurs est qu'ils permettent de pénétrer au cœur des cellules visées pour y délivrer le médicament souhaité. L'efficacité thérapeutique de ces molécules s'en trouve décuplée et les effets indésirables pour le patient sont considérablement diminués.
Le cancer du pancréas reste particulièrement grave car il résiste dans la plupart des cas aux différents traitements employés, chimiothérapie et radiothérapie notamment. En général, le taux de survie dans ce type de cancer ne dépasse pas les 5 % à cinq ans.
Les chercheurs japonais ont expérimenté leurs nanocapsules sur des souris présentant un cancer du pancréas et celles-ci ont été suivies pendant 100 jours, ce qui correspond à environ 10 années de vie pour un être humain.
Contrairement aux souris qui ont été traitées par les méthodes thérapeutiques classiques et dont le taux de survie n'a pas dépassé 20 % à 100 jours, 80 % des souris ayant bénéficié du traitement par nanocapsule étaient toujours en vie à l'issue de cette même période. Autre observation encourageante, cette "nanothérapie" diminue sensiblement le risque de métastases.
Compte tenu de ces résultats prometteurs, les chercheurs japonais espèrent pouvoir prochainement passer aux essais cliniques sur l'homme.
Article rédigé par Georges Simmonds pour RT Flash
FIRST Program
|
|
|
|
|
|
|
|
Actuellement, il est difficile d'évaluer le risque, chez un adolescent victime d'une dépression chronique ou de troubles du comportement, de développement ultérieur d'une pathologie mentale lourde, telle que la schizophrénie.
En effet, dans la très grande majorité des cas, cette pathologie psychiatrique n'est prise en charge que lorsque le patient a déjà été confronté à plusieurs épisodes délirants et que la maladie est déjà entrée dans une phase active.
Mais des chercheurs de l'Université Columbia à New York, dirigés par Scott Small, ont montré, en observant grâce à l'imagerie cérébrale l'évolution de l'hippocampe chez des sujets schizophrènes, que ces malades étaient soumis à une activité spécifique et anormale dans une région précise de leur hippocampe.
Les chercheurs américains ont réussi à reproduire ces modifications de l'hippocampe chez la souris en lui injectant de la kétamine, une molécule psychotrope qui provoque des états proches de la schizophrénie.
Ils ont ensuite montré que l'atrophie de l'hippocampe était fortement liée à une concentration anormale d'un neurotransmetteur, le glutamate. Ils ont enfin constaté que le blocage de ce neurotransmetteur à l'aide d'une substance chimique semblait rétablir le fonctionnement normal de l'hippocampe.
A la lumière de ces travaux, il semblerait donc que l'inhibition du glutamate à l'aide de certains médicaments, comme la gabapentine ou la lamotrigine, soit susceptible de prévenir la survenue de cette pathologie mentale ou du moins d'en atténuer la gravité chez les sujets les plus à risque.
Le problème est que seul un tiers des patients évolueront vers des formes graves de cette affection psychique. C'est pourquoi les recherches vont se poursuivre, en associant les différentes approches (biologique, génétique, psychologique) pour essayer de détecter de manière fiable et le plus précocement possible les sujets à risque qui pourraient éventuellement bénéficier utilement de ce nouveau traitement.
Article rédigé par Georges Simmonds pour RT Flash
Neuron
Columbia
|
|
|
|
|
|
|
|
Selon une vaste méta-analyse réalisée par l'équipe du professeur Duo Li, de l'Université du Zhejiang et regroupant 26 études, la consommation régulière d'acides gras oméga 3 provenant de poissons gras, comme le saumon, le thon ou les sardines, diminuerait le risque de cancer du sein. Ce travail épidémiologique réalisé sur trois continents (Amérique du Nord, Europe et Asie) a porté sur plus de 800.000 femmes et passé au crible 20 000 cas de cancer du sein.
Selon ces recherches, il semble que la consommation d'une à deux portions de poissons gras par semaine (saumon, sardine ou maquereau) permette une réduction de 14 % du risque de cancer du sein, après ajustement des autres facteurs de risque.
L'étude précise que chaque augmentation de consommation de 0,1g d'oméga 3 issu d'un poisson gras réduisait en moyenne de 5 % le risque de cancer du sein.
Les oméga 3 sont des acides gras qui jouent un rôle majeur dans la construction et le métabolisme cellulaires. Trois de ces acides gras (DHA, DPA et EPA) sont surtout présents dans les poissons gras (saumon, thon, maquereau, hareng, sardine et anchois). Le quatrième (ALA) se trouve essentiellement dans certaines huiles végétales, comme l'huile de noix.
Les chercheurs chinois précisent en outre que seuls les oméga 3 d'origine marine semblent avoir un effet protecteur en matière de cancer du sein. C'est ce caractère protecteur spécifique qui expliquerait pourquoi le risque de cancer du sein est sensiblement inférieur dans certains pays d'Asie où l'on consomme beaucoup plus de poissons qu'en Europe.
Au niveau mondial, le cancer du sein représente 23 % de l'ensemble des cancers (13 millions de nouveaux cas par an dans le monde) et 14 % des décès (8 millions de morts par cancer dans le monde chaque année) .
Article rédigé par Georges Simmonds pour RT Flash
BMJ
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut de recherche Scripps, en Floride, dirigés par Gavin Rumbaugh, ont montré qu'une mutation d’un gène unique, le gêne SYNGAP1, au cours du développement précoce de l’enfant peut entraîner des troubles cognitifs et comportementaux tout au long de la vie.
Ces travaux montrent que la perte d’une seule copie de ce gène peut perturber un mécanisme-clé, impliqué dans la régulation de la plasticité cérébrale qui permet les interconnexions neuronales.
Ces recherches montrent également que la perte d’une seule copie de ce gène provoque le développement intempestif et prématuré de synapses au cours des premières semaines suivant la naissance.
Cette maturation précoce repose sur un équilibre délicat, pendant la phase de développement cérébral, entre l’excitabilité des cellules cérébrales dans l’hippocampe et leur inhibition. Selon les chercheurs, une perturbation de cet équilibre pourrait sensiblement augmenter le risque de troubles cognitifs et comportementaux tout au long de la vie, chez certaines personnes.
L'étude montre également que le gène impliqué dans ce mécanisme, le SYNGAP1, joue également un rôle important dans la régulation synaptique et son disfonctionnement augmente considérablement le risque d’autisme et de déficience intellectuelle sévère.
Selon ces travaux, il serait donc possible, en prévenant les dommages causés par les mutations de SYNGAP1, de minimiser les troubles cognitifs liés à une déficience de plasticité du cerveau.
Article rédigé par Georges Simmonds pour RT Flash
JNS
Scicasts
|
|
|
|
|
|
|
|
En octobre 2012, la publication des travaux d'Angela Sirigu, du Centre de neuroscience cognitive à Lyon, avait fait grand bruit en montrant, sur 13 patients atteints du syndrome d'Asperger (une forme d'autisme) que l'administration d’ocytocine par voie nasale améliore sensiblement les symptômes de ce trouble du comportement.
Selon une nouvelle étude de l'Université Concordia (Canada ), le même spray nasal d’ocytocine, une hormone produite notamment lors de l'accouchement et de l'allaitement, pourrait également avoir des effets thérapeutiques intéressants pour les sujets souffrant de phobies sociales ou d'une perte de confiance.
Dans cette étude en double aveugle contre placebo, une centaine d'étudiants, âgés de 18 à 35 ans, recevaient un spray nasal d’ocytocine ou un spray placebo.
Les participants à cette étude étaient ensuite soumis à des entretiens au cours desquels ils étaient confrontés à des interlocuteurs (en réalité, des comédiens) adoptant à leur égard un comportement agressif et méprisant destiné à provoquer un sentiment de rejet social.
Les chercheurs ont pu constater que les participants ayant bénéficié d'une inhalation d’ocytocine conservaient un bon niveau d'estime d'eux-mêmes, malgré les tentatives de déstabilisation psychologique dont ils avaient été l'objet.
Selon ces travaux, l’ocytocine aurait un rôle de "consolidation" de la confiance en agissant sur le système nerveux central de manière à privilégier les stratégies de liens sociaux par rapport aux comportements d'évitement et de fuite.
Article rédigé par Georges Simmonds pour RT Flash
Science Direcct
|
|
|
|
|
|
|
|
Selon une étude suédoise réalisée par l’Université de Göteborg sur plus d'un million de personnes, le fait d'avoir une bonne condition physique à 18 ans réduit sensiblement le risque de suicide tout au long de la vie.
Initialement, l’Office Suédois de la Santé avait montré que chez des adolescents souffrant d’une détérioration de leur santé mentale, il était constaté notamment que le risque de suicide était quatre fois plus important que celui observé en moyenne pour la population générale.
Mais dans cette étude unique en son genre, les chercheurs suédois ont voulu évaluer l'impact d'une bonne condition physique chez les sujets jeunes en matière de risque de suicide à l'âge adulte. Pendant plus de 40 ans, 1,1 million d'hommes suédois ont fait l'objet d'un suivi médico-social méthodique. Initialement, la condition physique des participants à cette étude avait été évaluée par un test sur un vélo d’exercice, durant leur visite médicale d’entrée au service militaire.
Les chercheurs ont pu montrer, à l'issue de cette vaste analyse, l'existence d'une forte corrélation entre la pratique sportive durant la jeunesse et une réduction du risque de comportement suicidaire plus tard dans la vie. Ce lien de causalité a par ailleurs été confirmé par une analyse des informations médicales portant sur 340 000 frères.
De précédentes études avaient déjà montré l’effet bénéfique de l’exercice physique en matière de réduction du risque de dépression et du maintien des facultés cognitives.
Ces travaux confirment que les états dépressifs précoces constituent un facteur prédicteur de comportement suicidaire plus tard dans la vie et montrent également que l’adolescence joue un rôle clé dans le développement cérébral et dans l'évaluation des risques d'altérations ultérieures de la santé mentale.
Article rédigé par Georges Simmonds pour RT Flash
Cambridge University Press
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|