|
|
Edito
Humanité : les deux cents glorieuses !
Selon l'ONU et l'OMS, au cours des 50 dernières années, l'espérance de vie moyenne à la naissance a progressé de plus de 20 ans dans le monde, passant de 46 ans à 67,5 ans et fait encore plus remarquable, l'espérance de vie à la naissance dans les pays les plus pauvres de la planète est passée de 36 à 56 ans, progressant également de 20 ans ! Sous l'Antiquité, l'espérance de vie était d'environ 25 ans et à la veille de la révolution industrielle (fin du XVIIIe siècle) elle n'était encore que de 35 ans en France. Il a donc fallu 18 siècles pour gagner à peine 10 ans de vie.
On l'oublie souvent mais en 1900, à l'époque de nos grands parents pour ceux d'entre nous qui ont dépassé la cinquantaine, l'espérance de vie moyenne (hommes et femmes réunis) n'était encore que de 45 ans en France. Elle est à présent de plus de 80 ans ! Il est en outre intéressant de souligner, comme le montrent les études de l'Ined et de l'Insee, que la mortalité diminue dans toutes les tranches d'âge en France et que le nombre total de décès reste comparable à son niveau d'il y a dix ans alors que la proportion de personnes âgées n'a cessé d'augmenter dans le même temps. L'Insee a d'ailleurs bien montré que si les risques de mortalité étaient restés au même niveau qu'en l'an 2000, il y aurait eu en 2010 au moins 120 000 décès en plus en France, si l'on tient compte de la progression du vieillissement moyen de notre population au cours de cette période.
En 2010, l'espérance de vie à la naissance a encore progressé en France de quatre mois, tant pour les hommes que pour les femmes. Depuis quinze ans, toujours selon l’Insee, l'espérance de vie continue sa progression régulière au même rythme moyen de quatre mois par an. Rien n'indique pour l'instant un ralentissement ou un arrêt de cette progression continue de l'espérance de vie dans notre pays et celle-ci devrait se poursuivre, si l'on en croit l'INSEE, qui prévoit dans ses dernières études, qu'elle pourrait atteindre en 2050 91,5 ans pour les femmes et 86,3 ans pour les hommes !
Plusieurs études scientifiques internationales, dont celle, fameuse, réalisée en 2005 par John Wilmoth, de l’Université de Berkeley, en Californie, ont montré que, dans l'ensemble des pays développés, l’âge maximal de la mort n'a cessé d'augmenter depuis un siècle et demi. Dans l'ensemble de ces pays, les scientifiques ont ainsi pu constater une augmentation de la longévité maximale presque aussi importante au cours de ces trente dernières années que pendant les cent années précédentes. Ces travaux montrent de manière éclairante et rigoureuse que la durée maximale de la vie n'est pas, comme on l'a longtemps cru, une constante biologique ou génétique intangible et indépassable qui serait indépendante des facteurs économiques, environnementaux ou sociétaux. En réalité, et contrairement aux affirmations péremptoires et imprudentes de certains démographes célèbres du siècle dernier qui avaient fixé des limites infranchissables à la longévité humaine, celle-ci ne cesse d'évoluer dans le temps sans qu’on puisse aujourd'hui prévoir jusqu’où ira cet accroissement sans précédent de la longévité humaine maximale.
Reste une question fondamentale : comment expliquer cette extraordinaire progression (qui continue au même rythme ces dernières années) alors que, jusqu'en 1800, l'organisation des sociétés humaines restait essentiellement rurale et artisanale, qu'il y avait très peu de pollution de l'air, très peu de substances chimiques de synthèse dans notre environnement ? Tout simplement parce que les immenses progrès intervenus depuis un siècle dans les domaines agricoles, économiques, industriels, scientifiques, technologiques et médicaux ont entraîné une amélioration sans précédent des conditions de vie et ont eu, pour l'ensemble de l'humanité et pour l'Europe en particulier, des effets bénéfiques très largement supérieurs aux effets négatifs liés à la croissance économique et aux atteintes à l'environnement. Si ce n'était pas le cas, nous aurions vu l'espérance de vie régresser ou stagner depuis un siècle or c'est bien le contraire qui s'est passé : elle a plus augmenté, comme nous l'avons souligné, en un siècle qu'entre l'Antiquité et le début du XXe siècle !
Autre évolution surprenante qui va à l'encontre des idées reçues et de bien des discours ambiants : la production agricole mondiale a été, heureusement pour l'humanité, bien plus rapide que l'augmentation de la population mondiale depuis quarante ans. Grâce aux remarquables progrès de la productivité agricole, l'augmentation des ressources alimentaires par habitant n'a cessé de s'accroître depuis un demi-siècle : la ration alimentaire moyenne dans le monde qui était d'environ 1 900 calories en 1960, est passée à plus de 2 500 calories en l'an 2000, soit une augmentation de 31,5 % en 40 ans.
Cette progression est d'autant plus impressionnante que dans le même temps, la population mondiale a été multipliée par plus de deux au cours de cette période, passant de 3 milliards à 6,1 milliards d'habitants et que la surface mondiale cultivée est restée, à cause de la pression démographique, de l'urbanisation et des changements climatiques, globalement constante dans le monde depuis 1960, selon les travaux de la FAO. Il semble donc que la "révolution verte" des années 50 et 60 et les progrès en matière d'agriculture et d'agronomie aient eu des résultats très bénéfiques pour l'ensemble de la population mondiale, contrairement à ce qu'affirment aujourd'hui certains discours politiques ou économiques.
Il découle de cette évolution un autre fait remarquable et souvent ignoré qu'il convient de souligner : la proportion de la population vivant dans la pauvreté absolue dans les pays en développement a été divisée par deux entre 1981 et 2001, passant de 40 à 21 % de la population mondiale, selon les chiffres publiés en début d'année par la Banque mondiale.
Une autre information révélée par la Banque mondiale confirme cette évolution très positive : entre 2005 et 2008, le nombre global d'Africains vivant dans la grande pauvreté a reculé pour la première fois depuis plus de trente ans. Cette étude révèle par ailleurs que six des douze économies mondiales ayant actuellement les croissances les plus fortes, se trouvent en Afrique subsaharienne. Exemple de ce développement rapide et surprenant : le Nigeria, géant démographique africain (160 millions d'habitants) qui a connu une croissance annuelle moyenne de 7,5 % depuis 10 ans !
Aussi surprenant que cela puisse paraître, les perspectives de développement économique du continent africain sont remarquables, comme le montre d'ailleurs sa croissance économique moyenne annuelle de 5 % par an depuis dix ans, nettement supérieure à la croissance moyenne annuelle mondiale. Selon une étude récente du McKinsey Global Institute, le produit intérieur brut africain (PIB) pourrait passer de 1 600 milliards de dollars en 2008 - l'équivalent du PIB de l'Espagne - à 2 600 milliards de dollars en 2020, l'équivalent du PIB du Brésil, 6ème puissance économique mondiale.
On constate d'ailleurs que la consommation en Afrique connaît déjà une croissance accélérée, même si 40 % des Africains vivent encore dans un grand dénuement. En moins de 10 ans, le nombre de lignes téléphoniques sur le continent africain a doublé, passant de 180 à 408 pour 1000 habitants et l'on estime que 90 millions de ménages africains gagnent désormais plus de 300 euros par mois, seuil à partir duquel ces foyers commencent à dépenser plus de la moitié de leurs revenus dans d'autres postes que l'alimentation et notamment dans les biens de consommation et différents services, qui alimentent en retour la croissance et le développement, dans une boucle rétroactive positive bien analysée par Rostow dans son fameux essai "Les cinq étapes de la croissance économique".
Pour la première fois, on assiste donc à un recul global et sensible de l'extrême pauvreté dans toutes les régions du monde, à l'exception des états en situation de guerre. En Afrique subsaharienne (700 millions d'habitants), dont la population va presque doubler au cours des vingt prochaines années, le nombre de personnes vivant dans la grande pauvreté devrait basculer en dessous de la barre des 50 % avant 2015, ce qui permettrait d'atteindre le premier objectif de développement pour le Millénaire - réduire de moitié à l'horizon 2015, par rapport à 1990, le nombre de personnes vivant dans une extrême pauvreté.
Le rapport Intitulé « Global Wealth Report 2011 », publié par le Crédit Suisse, montre pour sa part que la richesse mondiale devrait augmenter de 50 % d'ici 2017, pour atteindre 250.000 milliards d’euros, grâce au développement de l'Asie, de l’Amérique Latine et d'une large partie de l’Afrique. Il est également remarquable de constater que depuis dix ans, le revenu moyen par habitant augmente bien plus vite dans pays pauvres que dans les pays riches. Le revenu moyen par habitant, dans les pays riches a en effet progressé de seulement 11 % entre 2000 et 2010, contre 40 % dans les pays émergents et 25 % en moyenne mondiale.
Considéré d'un point de vue historique, sur la période 1820-2000, le PIB mondial sera passé de 700 milliards de dollars (valeur 1990) à 36 000 milliards de dollars, soit une multiplication par 48. Quant au PIB moyen par terrien, il a été multiplié par plus de huit au cours de la même période, passant de 700 dollars (constants) en 1820 à 5 900 dollars en 2000. Depuis deux cents ans, grâce à la révolution industrielle et à l'extraordinaire accélération du progrès technologique et de la productivité, les hommes ont donc produit plus de richesses matérielles et surtout immatérielles qu’entre l’apparition de l’espèce humaine et le début du XIXe siècle !
Enfin, l’Organisation mondiale de la santé (OMS), a annoncé en mars 2012 que 6,1 milliards d’êtres humains ont dorénavant accès à de l’eau potable. Ainsi, entre 1990 et 2010, plus de 2 milliards de personnes ont pu se raccorder à un réseau d’eau potable, ou accéder à des puits préservés d'une contamination biologique ou chimique. Sur ces 2 milliards de personnes supplémentaires ayant accès à l'eau potable, près de 800 millions habitent en Chine ou en Inde et cette progression est tout à fait remarquable car l'absence d'accès à l'eau potable, il faut inlassablement le rappeler, reste l'une des grandes causes de mortalité dans le monde avec prés de 4 millions de décès par an. Dans ce domaine essentiel de l'accès à l'eau, l'objectif du millénaire défini par l'ONU a donc également été atteint puisqu'on estime que 89 % de la population mondiale avait accès en 2010, sinon à une eau potable selon nos normes occidentales très strictes, du moins à une source "améliorée" d'eau consommable.
L'ensemble de ces faits et évolutions ne doit bien entendu pas occulter les profondes disparités et inégalités économiques et sociales qui persistent entre continents et pays et à l'intérieur même des différentes sociétés humaines et des états considérés. Mais ces indicateurs, considérés au niveau planétaire et sur le long terme, dans une perspective historique, infligent un démenti cinglant aux discours catastrophiques, malthusianistes et technophobes ambiants qui nous expliquent que l'essor économique, technologique et démographique sans précédent qu'a connu l'humanité depuis deux siècles se serait accompagné d'une dégradation générale des conditions et de la qualité de vie sur notre planète, que la population mondiale serait "trop nombreuse" et qu'elle vivrait moins bien qu'à l'époque de nos parents ou de nos grands parents.
N'en déplaisent aux oiseaux de mauvaise augure et autres cassandres qui proposent comme perspective mondiale pour l'espèce humaine une réduction drastique de la population mondiale, la décroissance généralisée et la frugalité économique et matérielle pour tous, jamais l'espèce humaine, au cours de sa longue histoire, n'a connu une telle amélioration de son sort en si peu de temps (une dizaine de générations). La volonté, l'imagination et l'intelligence de l'homme étant sans limites, il n' y a aucune raison de penser que cette extraordinaire progression de l'humanité ne puisse pas se poursuivre même si, face à la finitude physique de notre monde et au défi réel du changement climatique, elle doit intégrer une finalité écologique et s'inscrire dans le cadre impératif d'un développement supportable pour la planète.
Devons nous choisir entre une jambe ou l'autre pour avancer ? Nous n'avons pas à choisir entre développement et environnement ni entre croissance et équité sociale car ces dimensions de l'évolution humaine ne sont pas antagonistes mais interdépendantes et consubstantielles. Nous devons au contraire rompre avec les idéologies réductrices et les approches "naturalistes" issues du XIXe siècle pour penser, concevoir et imaginer de nouveaux modèles sociaux et politiques qui intègrent la rupture de civilisation liée à la dématérialisation de l'économie et à la révolution numérique et cognitive en cours et qui nous permettent de poursuivre cette marche historique irrésistible vers le progrès, avec la perspective de sortir définitivement l'humanité de la misère et du sous-développement au cours de ce siècle.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Environ 20 000 jeunes élèves seront munis d'une puce dans leur « uniforme intelligent » dans le but de réduire le taux d'absentéisme dans les classes de 25 écoles au nord-est du Brésil. Il s'agit d'un investissement qui a coûté 700 000$ au gouvernement municipal. "Nous avons remarqué que les parents déposaient les enfants à l'école mais n'attendaient pas de voir s'ils rentraient dans l'immeuble puisqu'ils devaient eux-mêmes se rendre au travail", explique Corioloano Moraes, le secrétaire d'éducation de Vitoria da Conquista . « Ils étaient toujours surpris lorsqu'on leur annonçait le nombre d'absences de leurs enfants. »
C'est le genre de surprise que ces puces veulent éliminer. Logées sous les écussons ou sur les manches des uniformes, les puces envoient un SMS aux parents lorsque leur enfant traverse les portes de l'école, munies de détecteurs. Si un certain retard s'accumule et que l'uniforme en question n'est pas dans l'édifice scolaire, un texto est envoyé aux parents pour les aviser de l'absence ou du retard de l'élève : « Votre enfant n'est pas encore arrivé à l'école ». Après trois récurrences, les parents devront motiver les retards et les absences.
Corioloano Moraes affirme que d'ici 2013, 43 000 enfants âgés de 4 à 14 ans devront porter ces uniformes intelligents dans les écoles publiques de la ville. Les uniformes peuvent être lavés et repassés sans endommager les puces, ajoute-t-il. « Il y a un grand engouement pour ces uniformes au Brésil. Nous avons probablement démarré une tendance ».
Branchez-vous
|
|
|
|
|
|
|
|
Google complète sa gamme d'outils pour les entreprises avec Google Apps Vault. Il s'agit d'une extension pour la suite bureautique en ligne Google Apps for Business. Elle lui ajoute des fonctions avancées d'archivage de données afin d'être facilement retrouvées en cas de litiges tels que des réclamations clients ou encore des poursuites juridiques.
"Les entreprises de toutes tailles ont besoin d'être préparées à l'inattendu. Gérer, archiver et préserver vos données avec Vault, vous permettra de protéger votre société. Les coûts liés aux litiges peuvent réellement affecter votre activité car même une poursuite mineure peut rapidement coûter plusieurs milliers de dollars", explique Jack Halprin, responsable de l'activité "eDiscovery" chez Google.
Vault se veut ainsi une solution abordable de "eDiscovery", pratique qui consiste à effectuer des recherches de pièces juridiques dans les archives numériques d'une entreprise. Or, ce type de recherches serait aujourd'hui assez mal préparé par les entreprises et se révèlerait donc, le moment venu, assez coûteux.
Le principe de Vault est de prendre les devants en archivant proactivement les informations. Une fois Vault activé, tous les échanges de messages réalisés avec Gmail ainsi que le chat intégré au service de messagerie de Google sont archivés et indexés. Le moteur de recherche de Vault permet ensuite de facilement retrouver des informations par mots clés, dates, expéditeurs, destinataires, libellés, etc. Des fonctions de recherche étendues, doivent également permettre aux services juridiques de l'entreprise de retrouver des informations selon différents types de litiges.
Contacté par L'Usine Nouvelle, Google France n'a pas été en mesure de fournir plus d'informations sur ce nouvel outil dans l'immédiat. Il n'est en effet disponible pour l'instant qu'aux États-Unis et en Amérique Latine, mais devrait faire l'objet d'une présentation plus détaillée lors de sa sortie en Europe, prévue dans les prochaines semaines. Outre-Atlantique, Google Apps Vault peut être ajouté à un compte Google Apps pour 5 dollars par mois et par utilisateur.
- Plus de 4 millions de clients pour Google Apps for Business
Lancée en 2007, la suite Google Apps for Business possède, selon son éditeur, quelque 4 millions de clients dans le monde, dont un million en Europe. "Nous observons une croissance forte de l’adoption de Google Apps depuis quelques mois en Europe, notamment grâce à la popularité grandissante du cloud computing", nous confiait récemment Eric Haddad, directeur Google Entreprise Europe du Sud.
L'Usine Nouvelle
|
|
|
|
|
|
|
|
Seagate, numéro un des disques durs dans le monde, vient d’annoncer avoir réussi à atteindre la densité symbolique de 1 Tbit/pouce2 sur un plateau de disque dur, contre 620 Gbits/pouce2 aujourd’hui. Ce record a été obtenu en laboratoire grâce à une technologie d’enregistrement appelée Heat-Assisted Magnetic Recording (HAMR).
Elle consiste dans l'utilisation d'un laser pour chauffer le plateau en alliage fer-platine et augmenter la stabilité du média pour stocker de l’information sur une zone plus petite. Cette technologie HAMR devrait progressivement remplacer celle du Perpendicular Magnetic Recording (PMR), actuellement utilisée pour les disques de grande capacité et qui arrive à bout de souffle.
La technologie HAMR va permettre de commercialiser dès l’année prochaine des disques de 6 To au format 3,5 pouces, puis de 60 To dans dix ans. Pour les disques de 2,5 pouces, ce sera 2 To dès l’année prochaine pour atteindre 20 To dans dix ans. Cette nouvelle technologie va redonner une longueur d’avance aux disques durs en termes de capacité, alors que ceux-ci sont actuellement distancés par les SSD dans de nombreux domaines (temps d’accès, débit, silence de fonctionnement, résistance aux chocs, etc.).
01Net
|
|
|
|
|
|
|
|
«J’aime». Le bouton «like» de Facebook a probablement contribué à son succès. Problème : il ne permet pas d’exposer sa haine d’une personne au grand jour. C’est pour en finir avec cet esprit quelque peu Bisounours qu’a été créée l’application EnemyGraph, rapporte Mashable. Désormais tous les individus, livres, films ou lieux mentionnés sur Facebook que vous n’aimez pas pourront être désignés comme «ennemis». Le candidat à la primaire républicaine Rick Santorum est pour le moment en tête de liste, suivi de près par Justin Bieber. Mais les personnalités publiques ne sont pas les seules représentées dans l’application. La Westboro Baptist Church, célèbre pour son homophobie, le navigateur Internet Explorer ou encore la chaîne Fox news figurent également parmi les plus détestés.
A l’initiative du projet, Dean Terry, un professeur de l’université du Texas de Dallas, aidé par deux étudiants. L’idée d’une telle application est venue d’un débat sur la nature des réseaux sociaux, explique-t-il : «Ce qui m’a toujours frappé, cette culture de la gentillesse forcée. Nous voulions donner aux gens la possibilité d’exprimer aussi des désaccords. Nous utilisons le mot "ennemi" avec à peu près la même précision avec laquelle Facebook utilise le mot "ami".»
Pour cet enseignant, l’intérêt est également universitaire. «Vous pouvez apprendre beaucoup de choses sur les gens en fonction de ce qui les énerve et de ce qu’ils n’aiment pas», avance Dean Terry. «De plus, si vous et moi n’aimons pas quelque chose, cela crée en réalité un lien entre nous qui n’a pas encore été exploré par les réseaux sociaux.»
L’application a été créée dans le cadre de l’invitation lancée par Facebook intitulée «Hack the Graph», visant à améliorer le réseau, la personnalisation des profils et l’identification des utilisateurs. D’après le site ReadWriteWeb, EnemyGraph rassemble déjà plus de 10.000 utilisateurs. Une goutte d’eau comparée aux 845 millions de comptes Facebook.
Dean Terry n’en est pas à son coup d’essai. Un an auparavant, son équipe avait lancé Undetweetable, qui permettait de récupérer des tweets supprimés précédemment. Rapidement, Twitter avait demandé sa fermeture. Sur son blog, Terry ne cache pas que Facebook pourrait réserver le même sort à EnemyGraph.
Slate
|
|
|
|
|
|
|
|
Longtemps oubliés par les développeurs, les malvoyants et non-voyants ont de plus en plus accès aux nouvelles technologies. «Blindspot», la canne blanche intelligente, sera-t-elle la prochaine sur la liste ? Le prototype a été récemment primé par le Forum Netexplorateur. Doté de capteurs numériques, cet outil permet de repérer les obstacles au sol et à hauteur d'homme en émettant un bip sonore. Mieux, «Blindspot» signale la présence de personnes connectées au réseau du propriétaire de la canne en déclenchant une petite sonnerie.
Si la vidéo de démonstration est séduisante, Fernando Pinto Da Silva, responsable du Centre d'évaluation et de recherche sur les technologies pour les aveugles et les malvoyants (Certam) attend de pouvoir la tester. «Le concept est intéressant mais c'est le genre de projet qui peut mettre en jeu la sécurité des personnes. Que se passe-t-il si la batterie est à plat ? Je pense que ça peut être un bon complément comme un chien guide, mais ça ne permet sûrement pas de remplacer une canne blanche standard», juge-t-il. Loin d'être la seule innovation du genre, cette «smartcanne» s'ajoute aux différentes technologiques déjà existantes, qui ont déjà bouleversé le quotidien de nombreuses personnes.
Sur les trois dernières années, «seul Apple a développé des fonctionnalités pour les personnes souffrant d'un handicap visuel, et je pense que la restitution vocale sur iPhone représente la plus grande révolution d'accessibilité», remarque Fernando Pinto Da Silva. Lancée en juin 2009, l'application VoiceOver décrit vocalement le contenu de l'écran du téléphone. «Même une interface tactile nous est désormais accessible», ajoute le responsable du Certam. En effet, l'utilisateur peut sélectionner un texte ou une commande sur l'écran et VoiceOver se charge de renseigner la fonction de l'élément et d'indiquer quel geste adopter. Par exemple : «toucher deux fois pour ouvrir».
Même fonctionnement pour les SMS. L'auteur du message écoute les lettres et les valide une par une. «C'est un peu long, admet Fernando Pinto Da Silva. Sinon, on peut utiliser la reconnaissance vocale. On dicte à voix haute ce que le téléphone doit rédiger ou alors on connecte un clavier en Bluetooth pour taper le message plus rapidement.»
Des chercheurs de l'université de Georgia Tech développent actuellement Braille Touch, une application pour smartphone permettant d'écrire directement en braille. Une solution qui pourrait facilement s'imposer, à en croire les tests qui ont déjà été effectués auprès de personnes malvoyantes : 32 mots à la minute avec 92 % d'exactitude, un score 6 fois plus élevé qu'avec d'autres méthodes. Les possibilités d'utilisation d'un téléphone s'élargissent de plus en plus mais «cela demande un apprentissage important qui n'est pas forcément à la portée de tous, notamment des personnes âgées», explique Fernando Pinto Da Silva.
Autre nouveauté, une application Apple donnant la possibilité aux aveugles de surfer sur Internet à partir de l'iPhone. A l'aide d'un afficheur braille connecté en Bluetooth ou par synthèse vocale, les malvoyants munis d'un iPhone peuvent désormais naviguer sur le Net à partir de leur téléphone mobile, «comme tout le monde», précise Fernando Pinto Da Silva, qui rappelle qu'«avant, les non-voyants ne pouvaient le faire que sur ordinateur». «Maintenant, je peux lire lefigaro.fr dans le métro, l'iPhone dans la poche avec la ligne de braille sur les genoux», ajoute-t-il. Cette application permet également «l'accès aux livres numériques via iBooks, en même temps que tout le monde, sans être obligé d'attendre qu'un livre soit retranscrit en braille».
Fernando Pinto Da Silva souligne aussi l'utilité des scanners de codes-barres qui permettent de lire le contenu d'un produit. «Par exemple, je peux avoir accès à une notice de médicament. Et quand je me retrouve dans un magasin, je peux désormais distinguer une bouteille de jus de pomme d'une bouteille de jus de poire, qui n'étaient pas reconnaissables au toucher.» Présenté lors de la 14e édition du Concours Handitec en 2010, le projet Eticode s'est vu attribuer le premier prix pour son initiative.
Outre-Atlantique, des codes-barres 2D encore plus évolués sont déjà commercialisés. «Ils ont l'avantage de contenir encore plus d'informations, l'équivalent d'une page A4», précise le responsable du Certam. Encore à l'état de projet, les puces RFID (Radio Frequency Identification) pourraient à long terme remplacer ce système de code-barres. «Cela fonctionne par ondes. Du coup, plus besoin de chercher soi-même le code-barres, les puces contenues dans les produits seraient tout de suite identifiées».
Le Figaro
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Dans son laboratoire du Centre Énergie Matériaux Télécommunications à Varennes, Fiorenzo Vetrone effectue des recherches qui font voir la vie en couleurs : le jeune professeur ne fabrique pas de nouvelles drogues, mais des nanoparticules luminescentes qui, parce qu'elles auront éclairé une tumeur, vous sauveront peut-être la vie un jour. Doper, en chimie, consiste à ajouter une substance à un produit pour en modifier considérablement certaines propriétés. Fiorenzo Vetrone, 37 ans, crée des nanoparticules, soit des cristaux composés de quelques centaines d'atomes seulement, afin qu'elles émettent de la lumière visible lorsque stimulées.
Ces nanoparticules luminescentes ouvrent la voie à une foule d'applications dans le domaine de la médecine, à commencer par la détection des cancers. De quelle manière ? Fiorenzo Vetrone veut que ses nanoparticules pénètrent uniquement dans les cellules cancéreuses. Il suffirait alors de mesurer d'où provient la lumière émise pour délimiter les tumeurs. Certaines nanoparticules luminescentes sont connues depuis plusieurs années déjà. C'est le cas des boîtes quantiques, des nanocristaux de matériau semi-conducteur dont les propriétés s'apparentent à celles d'un atome, et qui sont étudiées depuis les années 1980. Lorsqu'elles sont bombardées de rayons ultraviolets (UV), leurs électrons sont excités puis dégagent l'énergie acquise sous forme de lumière visible.
L'utilisation des UV limite cependant celle des boîtes quantiques dans le milieu biologique. « Ce type de lumière ne pénètre presque pas les tissus », souligne Fiorenzo Vetrone. Impossible, donc, de stimuler des boîtes quantiques qui se trouveraient sous la peau. En plus, certaines molécules naturellement présentes dans le corps réagissent aux rayons UV en émettant de la fluorescence. Cette interférence rend difficile l'analyse de la lumière dégagée. Et n'oublions pas que c'est la nocivité des rayons UV qui nous obligent à nous badigeonner de crème solaire l'été ! L'intérêt des nanoparticules luminescentes développées par le chercheur est qu'elles peuvent être stimulées par de la lumière près du spectre de l'infrarouge. Celle produite par un simple pointeur laser suffit. Ces rayons ne présentent aucun risque pour la santé, pénètrent mieux les tissus et n'engendrent aucune interférence avec les autres molécules du corps. Bref, les nanoparticules de Fiorenzo Vetrone comblent plusieurs défauts des boîtes quantiques.
La lumière dégagée par les nanoparticules qu'il développe est visible à l'œil nu. Un phénomène plutôt étonnant, puisque ces rayons contiennent plus d'énergie que ceux du spectre infrarouge utilisé pour stimuler les nanoparticules. Voilà qui semble contrevenir aux règles élémentaires de physique ! « Pas du tout », affirme Fiorenzo Vetrone. Malgré les apparences, aucune énergie n'est créée. Le phénomène est plutôt dû aux éléments employés pour « doper » les nanoparticules, soit le thulium, l'erbium et l'ytterbium.
Les trois appartiennent au groupe des terres rares, dans le tableau périodique des éléments chimiques. Le thulium et l'erbium possèdent tous deux la particularité, en quelque sorte, de pouvoir emmagasiner de l'énergie par petits coups, puis de toute la libérer en un instant. Un peu comme une balle qui monterait les marches d'un escalier une à la fois, puis se laisserait tomber une fois rendue en haut. Ces deux substances sont toutefois peu sensibles à la lumière près de l'infrarouge. Ce qui n'est pas le cas de l'ytterbium. Un peu comme une antenne reçoit un signal radio, puis le transmet à l'amplificateur, l'ytterbium absorbe le rayonnement près de l'infrarouge, puis transmet l'énergie au thulium et à l'erbium. Lorsque ces deux derniers ont emmagasiné assez d'énergie, ils émettent celle-ci d'un coup sous forme de lumière visible.
Enerzine
|
|
|
|
|
|
|
|
A l’Université de technologie de Vienne on imprime en 3D des objets à l’échelle du micromètre. Sous la houlette de Jan Torgersen et Peter Gruber, l’équipe autrichienne est parvenue à travailler sur des structures de quelques centaines de nanomètres de large seulement, une précision idéale pour créer des sculptures dont les plus grosses atteignent la taille d’un grain de sable. Une voiture de course et une cathédrale ont, par exemple, été reproduites à ces dimensions. Le dispositif mis au point par les chercheurs parvient à assembler une centaine de couches en quatre minutes. Selon ses concepteurs, il pulvérise un record de vitesse avec une équivalence de 5 mètre à la seconde.
Cette avancée très sérieuse exploite un procédé appelé « lithographie deux photons ». Grâce à lui, la matière solide peut être créée n’importe où dans la résine servant à construire l’objet, plutôt que juste au-dessus de la couche précédente, ce qui fait gagner du temps par rapport à la technologie d’impression 3D traditionnelle, en évitant de préparer la surface de travail avant de créer la couche suivante. A la clé, des usages qui dépassent le simple cadre du prototypage ou du loisir onéreux : les développements visent, entre autres, des applications médicales. Notamment le remplacement d’os à partir de treillis sur lesquels des cellules vivantes pourraient se développer et reconstruire des pans entiers de matière manquante, ou encore la reconstitution de tissus et d’organes.
ZDNet
|
|
|
|
|
|
|
|
Le chirurgien chausse des lunettes 3D (vision en relief) qui l'immergent instantanément dans le site opératoire. À le voir tourner lentement la tête en maniant de longues baguettes métalliques munies de poignées à gâchettes, on se demande quelle précision il peut avoir. Et pourtant… Loin d'être un gadget, les lunettes 3D ont un avantage considérable par rapport à un simple écran plat. «Pour les gestes, nous avons besoin d'au moins deux vues pour appréhender les volumes», explique le Professeur James Drake, chef du service de neurochirurgie du Sickkids (Hôpital pour enfants malades) de Toronto (Canada). Il suffit d'essayer d'attraper un verre en fermant un œil pour comprendre l'intérêt des deux angles de vue lors d'un mouvement précis.
La précision justement n'est pas diminuée mais accrue, grâce aux bras articulés du robot (KidsArm) à l'extrémité desquels se trouvent de minuscules instruments de chirurgie : «Nous travaillons maintenant à ce que le robot fasse des gestes difficiles et qu'il les fasse à une vitesse 30 à 100 fois supérieure», ajoute le neurochirurgien, tout en réalisant une suture sur un moulage à l'aide du KidsArm. En principe, ce robot chirurgical, développé par le Centre d'innovation et intervention thérapeutique guidées par imagerie (Cigiti) du Sickkids de Toronto, devrait être utilisé dès 2013-2014» sur des patients, estime le Professeur Drake.
Au début du mois, le gouvernement fédéral de l'Ontario, qui soutient les projets innovants mêlant public et privé, a alloué 10 millions de dollars pour booster le développement du KidsArm. Car pour l'instant, si la chirurgie assistée par robotique est largement répandue chez les adultes, notamment en urologie et en neurochirurgie, les enfants, eux, ne sont opérés que par chirurgie classique. Le célèbre robot DaVinci, leader du marché «adulte» qui ne cesse de se développer, est par exemple installé dans plus de 1600 blocs opératoires dans le monde, dont 300 environ en Europe. Selon ses utilisateurs, il permet plus de précision dans le geste du chirurgien, moins de saignements, une hospitalisation plus courte et, bien sûr, un préjudice esthétique moindre puisque les grandes cicatrices sont remplacées par les petites incisions nécessaires à l'introduction des outils chirurgicaux.
Le système, mis au point par les chercheurs canadiens en collaboration avec Philips Healthcare, mais aussi avec des industriels qui travaillent sur la robotique et la simulation spatiale, possède un atout majeur : la combinaison d'images issues de différentes technologies. Le KidsArm fusionne en effet des images obtenues par résonance magnétique nucléaire (IRM) et par ultrasons pour fournir au chirurgien des images 3D de haute qualité en temps réel.
Le Figaro
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L'Indien Bharti Infratel et le consortium GSMA ont annoncé le 28 mars la signature d'un protocole d'accord pour développer et encourager l'utilisation de technologies vertes dans l'infrastructure indienne de tours de télécommunication.
A travers cette coopération, 1.000 tours d'Infratel seront converties en "sites verts". Cette conversion aura pour effet de faire baisser la consommation de diesel et par conséquent de réduire de presque 11.000 tonnes les émissions de gaz à effet de serre. Bharti Infratel est un des plus importants fournisseurs mondiaux de tours de télécommunication. La société possède plus de 33 000 des 400 000 tours, environ, qui sont installées en Inde.
Étant donné sa présence à prédominance rurale, Bharti Infratel exploite 9.000 tours qui ne sont pas connectées au réseau, soit 18 % de toutes les tours indiennes non connectées au réseau. Infratel a déjà converti plus de 10.500 sites en installant des alimentations de secours alternatives, parmi lesquels presque 1.350 sites fonctionnent désormais avec une alimentation solaire hybride. La conversion de 1.000 sites supplémentaires est la première mesure prise dans le cadre de la collaboration avec la GSMA.
En vigueur depuis presque deux ans, l'initiative primée d'Infratel « GreenTowers P7 » est un programme complet d'efficacité et d'alternatives énergétiques dont l'objectif est de réduire la consommation de diesel et les émissions de carbone. L'initiative GreenTowers devrait aboutir à la conversion de 70 % du réseau de tours d'Infratel. Elle comprend 7 mesures qui visent principalement à réduire de 154.000 tonnes les émissions de CO2 chaque année, grâce à une baisse de 58,17 millions de litres par an de la consommation de diesel.
« Nous sommes ravis de nous associer avec la GSMA et nous sommes convaincus que ce partenariat va constituer une expansion prometteuse de notre expertise et notre leadership en matière de déploiement d'initiatives d'énergie propre dans l'ensemble de notre réseau de tours », a déclaré Sairam Prasad, directeur technique de Bharti Infratel. « Ce partenariat vital représente une autre étape dans nos efforts pour être à l'avant-garde en matière d'infrastructure verte de tours de télécommunication et donnera un nouvel élan à l'initiative GreenTowers P7 d'Infratel. »
« Ce partenariat va avoir un impact considérable dans la réduction des frais d'exploitation, à hauteur de 10 à 20 % dans chaque site, et permettra aussi de baisser considérablement les émissions de carbone », a estimé de son côté Chris Locke, directeur général du GSMA Development Fund. « Grâce aux enseignements obtenus par l'intermédiaire de notre partenariat avec Bharti Infratel, nous allons rédiger un guide des meilleures pratiques et une étude de cas qui, nous l'espérons, aboutiront à des changements importants lorsque l'industrie se met à suivre l'exemple de Bharti Infratel. »
Lancé en septembre 2008, le programme Green Power for Mobile de la GSMA, qui bénéficie du soutien de l'International Finance Corporation (IFC) de la Banque mondiale, a pour objectif de promouvoir et d'institutionnaliser les sources d'énergie renouvelables dans l'industrie du mobile sur plusieurs marchés, y compris l'Inde. Le programme GreenTowers P7 vise 24.000 sites de tours (principalement dans les zones rurales mal ou pas connectées au secteur). Sur ces 24.000 sites, 10.500 ont déjà été convertis au cours de la première année de ce programme de 3 ans.
Enerzine
|
|
|
|
|
|
|
|
Afin de répondre aux exigences des futures normes Euro 7, un certain nombre de partenaires se sont regroupés dans un projet baptisé Triptic-H (TRaitement des ParTICules issues de moteurs à injection directe d'essence pour une application véhicule Hybride), pour développer un filtre à particules adapté aux moteurs à injection directe d'essence.
Il s'agit de : CTI, une PME spécialisée dans le développement et la production de céramiques techniques poreuses ; IFP Energies Nouvelles ; Ircelyon, un laboratoire de recherche publique (CNRS/Université Claude Bernard 1 à Lyon) axé sur la catalyse ; PSA Peugeot Citroën ; Saint Gobain CREE.
Dans un premier temps, ces partenaires vont s'attacher à caractériser les particules, notamment ultrafines, issues de ces moteurs pouvant fonctionner en mode hybride, puis ils développeront une solution adaptée à leur post-traitement.
Deux voies technologiques vont être explorées :
- En complément du classique catalyseur 3 voies, il s'agira de filtrer les très fines particules et de favoriser leur oxydation dans des gaz pauvres en oxygène, à l'aide de catalyseurs ne nécessitant pas de métaux précieux ;
- La seconde voie vise le traitement simultané et synergique des émissions particulaires et gazeuses, au sein d'un seul et même support, pour faciliter l'intégration du système à bord des véhicules.
Dans ces contextes, des prototypes de supports filtrants catalytiques seront réalisés et évalués en laboratoire. Les plus pertinents seront testés sur banc moteur. Des stratégies de contrôle moteur seront également développées pour favoriser l'oxydation des suies sans accumulation dans le filtre.
Ce projet a été retenu par l'Agence Nationale de la Recherche (ANR) dans le cadre de l'appel à projets Transports Terrestres Durables. Prévu pour une durée de 3 ans, il est piloté par l'IFP.
Industrie & Technologies
|
|
|
|
|
|
|
|
L’Union du grand commerce de centre-ville (UCV) et la Fédération des entreprises du commerce et de la distribution (FCD) ont demandé des aménagements du projet gouvernemental qui obligera à éteindre les enseignes lumineuses de 01H00 à 06H00 à partir du 1er juillet. Cette disposition fait partie de 27 mesures annoncées en décembre par Nathalie Kosciusko-Morizet, alors ministre de l'Ecologie, pour améliorer l'efficacité énergétique et lutter contre le gaspillage.
"On a demandé que cette réglementation, qui s'applique sur tout le territoire, soit modulée et qu'il y ait une marge d'appréciation locale en fonction des événements", comme la Nuit blanche à Paris ou la Fête de la lumière à Lyon, a indiqué à l'AFP Claude Boulle, président exécutif de l'UCV (grands magasins). "On ne peut pas traiter de la même manière les grands monuments, les Champs-Elysées et le reste de la ville", ni "pour des raisons de sécurité, les gares", a-t-il fait valoir. "On met sur la table la possibilité qu'il y ait des adaptations à la vie des gens", a-t-il dit, évoquant par exemple les "vitrines des grands magasins pour les fêtes", l'avenue Montaigne ou "des quartiers où on a envie de vivre la nuit".
Selon le ministère, il faut distinguer entre les enseignes lumineuses extérieures des magasins accrochées aux murs, et qui devront être éteintes à partir du 1er juillet entre 01H00 et 06H00, et l'éclairage intérieur des vitrines des commerces et des bureaux, qui fait encore l'objet de concertations.
Un décret cadre a été publié en janvier dernier pour les enseignes, il reste à publier prochainement l'arrêté d'application. Les dispositions pour les enseignes avaient été "plutôt bien acceptées", selon le ministère, lors des tables-rondes sur l'efficacité énergétique l'an dernier, auxquelles avaient pris part les pouvoirs publics, commerçants, industriels et consommateurs. En revanche, sur le second texte visant à interdire l'éclairage nocturne des vitrines et bureaux, qui permettrait d'économiser 2 terawattheures, soit la consommation d'électricité de 700.000 ménages par an, les discussions continuent.
"Ca peut faire l'objet d'une certaine souplesse dans la mise en oeuvre, rien n'est définitivement arrêté pour le moment", a-t-on précisé au ministère de l'Ecologie, qui n'annonce aucun calendrier précis pour la mise en oeuvre de ces mesures. Les dérogations pourraient être accordées pour des raisons de sécurité ou de façon temporaire par des arrêtés préfectoraux.
Les enseignes de la grande distribution sont déjà éteintes à 01H00 du matin, à l'exception de certaines zones commerciales en bordure d'autoroute, a souligné Philipe Joguet, responsable réglementation et développement durable à la FCD.
Les patrons des PME (CGPME) ont, eux, dénoncé l'imposition d'un "véritable couvre-feu" en interdisant tout éclairage non résidentiel à partir de 01H00 du matin. "Ce serait à la fois inapplicable et inacceptable", selon eux, car les Français ne pourraient plus savoir si un établissement est ouvert et rechigneraient à se rendre dans un hôtel, une station-service, ou une clinique dont les abords seraient plongés dans l'obscurité. "Imagine-t-on réellement retirer de l'argent à un distributeur de billets plongé dans le noir ?", ont-ils demandé, en proposant par exemple un abaissement du niveau d'éclairage plutôt qu'une extinction.
Le Syndicat des entreprises du génie électrique et climatique (Serce) qui compte pour adhérents des PME du secteur et des entreprises comme Etde, Eiffage Energie ou Spie, ne veut pas d’un arrêté instaurant l’obligation pour les bureaux et les commerces d’éteindre leur éclairage intérieur la nuit.
Le Moniteur
|
|
|
|
|
|
|
|
Un consortium regroupant Areva, GDF Suez et Vinci a présenté le 26 mars son projet de construction de trois énormes champs d'éoliennes off shore en Normandie grâce à un investissement de 2,5 à 3 milliards d'euros par site. Chacun des trois sites - à Dieppe et Fécamp (Seine-Maritime) ainsi qu'à Courseulles-sur-Mer (Calvados) - devrait être composé d'un parc d'environ 125 éoliennes fournissant quelque 600 à 700 MGW, soit quasiment l'équivalent d'un réacteur nucléaire. Le Havre sera la plaque tournante du projet, avec deux usines, l'une pour la fabrication des pales d'éoliennes, l'autre pour l'assemblage des nacelles.
Les présidents des trois entreprises ont dévoilé devant les élus locaux leur projet, qui est soutenu par la Caisse des dépôts et consignations (CDC) et pour lequel le choix des intervenants devrait être connu avant l'élection présidentielle. Si le gouvernement retient les propositions du consortium, le PDG de Vinci, Xavier Huillard, estime les investissements nécessaires à environ 2,5 à 3 milliards d'euros par site. Gérard Mestrallet, PDG de GDF Suez estime quant à lui que 6.000 emplois directs et indirects seront créés.
Le directeur général de CDC Infrastructure, Jean Bensaïd, prévoit que ces usines déployées sur 50.000 m2 contribueront à "la création d'une filière de l'éolien offshore dans notre pays" permettant d'exporter, notamment vers le Royaume-Uni, qui a annoncé un plan d'envergure dans ce domaine. La réussite de ces ambitions tient à l'attribution au consortium d'au moins deux des trois sites normands, selon Gérard Mestrallet. Luc Oursel, président du directoire d'Areva, se montre optimiste, étant donné le poids et l'expérience des trois groupes associés. "Nous avons aujourd'hui en commande 120 éoliennes, un produit éprouvé dans un environnement hostile", la mer du Nord, a-t-il déclaré. Ces éoliennes sont fabriquées par le groupe français dans son usine de Bremerhaven, en Allemagne.
Luc Oursel, président du directoire d'Areva, a souligné que ces usines pourraient travailler à l'export, en particulier au large des côtes britanniques, où de nombreux projets sont annoncés. "Il ne s'agit pas simplement de répondre à un appel d'offres, mais aussi de créer une filière industrielle dans un secteur appelé à croître fortement". Lancé en juillet, l'appel d'offres porte sur un total de 600 éoliennes, soit une dizaine de milliards d'euros d'investissements répartis sur les trois champs normands et deux autres projetés au large de Saint-Brieuc et Saint-Nazaire. Dans les prochaines semaines, le gouvernement fera un choix parmi la dizaine de groupements qui ont fait acte de candidature.
Le Télégramme
|
|
|
|
|
|
|
|
Transporter de l'électricité au sortir d'une centrale nucléaire, en Rhône-Alpes, on sait faire. Mais transporter de l'électricité d'énergies vertes intermittentes des futurs grands champs éoliens de la mer du Nord ou des centrales photovoltaïques du Sahara vers des lieux de consommation très éloignés, c'est une autre paire de manches », explique Henri Montès, délégué régional à la Recherche. Tel est l'objet du projet « Supergrid » qui, suite à un appel à projet, vient d'obtenir 72,6 millions d'euros de dotations gouvernementales, dans le cadre du Grand Emprunt. Pour prendre conscience de l'ampleur de ce projet de recherche, il faut multiplier cette somme par trois : si l'on ajoute les investissements qui seront apportés par le secteur privé et les collectivités locales, près de 210 millions d'euros devraient être investis dans les dix ans qui viennent dans ces recherches qui seront pour la plus grande part rhônapines. « Supergrid » est partie prenante de l'Institut d'Excellence pour les énergies décarbonnées (IEED) installé à proximité du campus de la Doua à Villeurbanne. Côté académique et labos de recherche, il implique l'Université Claude Bernard Lyon 1, le CNRS, le labo grenoblois CREMHyG, trois laboratoires publics Ampére, l'Insa de Lyon, l'Ecole Centrale et Supelec.
Le tout est piloté par une entreprise privée, en l'occurrence Alstom Villeurbanne, qui est coordinateur. Ce chef de file est accompagné dans cette aventure industrielle, de Nexans, de RTE (Réseau de transport d'électricité), de Vettiner et de la société Novasic à Chambéry. L'enjeu est de taille. Il s'agit pour la France de rattraper son retard, par rapport, notamment aux Etats-Unis et à la Chine, sur les futurs systèmes de transport de l'énergie électrique ultra-haute tension continu et alternatif : jusqu'à 1 million de volts ! Il va falloir acheminer de grands volumes d'électricité des grands champs éoliens de l'Atlantique et de la mer du Nord, mais aussi ceux émanant des futures (et éventuelles) centrales photovoltaïques du Sahara, en direction des lieux de production, très éloignés, bien sûr. Et ce, avec le moins de déperdition possible.
Les nouvelles technologies qu'il va falloir élaborer seront à base d'électronique, de puissance. Elles mettront en œuvre des moyens de stockage flexibles (l'hydrogène, les importants moyens hydro-électrique de Norvège ?). Il s'agit de surcroît de gérer le caractère intermittent des énergies renouvelables. Le tout dans la plus grande stabilité et sécurité possible.Selon les premières projections de la puissance publique, ce projet serait susceptible de créer près de deux mille emplois en France, principalement en Rhône-Alpes. Il faut savoir qu'à terme, le marché mondial des « Supergrids » est estimé à près de 15 milliards d'euros. Henri Montés, le Monsieur Recherche de Rhône-Alpes se félicite de ce nouveau succès : « Engagée depuis longtemps dans le photovoltaïque avec Photowatt et l'Institut national de l'énergie solaire à Chambéry, les smartgrids, avec Schneider Electric à Grenoble, la Région est en train de tisser sa toile dans les systèmes de gestion de l'énergie du futur. Nous avons la chance de bénéficier d'une longueur d'avance. »
Lyon Entreprises
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Des astronomes allemands ont découvert un très ancien système planétaire qu'ils considèrent être un survivant de l'une des premières ères cosmiques il y a 13 milliards d'années environ. Le système comprend l'étoile HIP 11952 et deux planètes. Un système si ancien nous permettra de mieux comprendre le processus de formation des planètes au début de l'Univers, qui s'est produit dans des conditions relativement différentes de celles qu'ont connu les systèmes planétaires suivants comme le nôtre.
Une théorie planétaire reconnue explique que, généralement, une étoile contenant plus de «métaux» (à savoir des éléments chimiques autres que l'hydrogène et l'hélium) est plus susceptible de posséder des planètes. On reconnaît également que les planètes se forment dans des disques de gaz et de poussière qui tourbillonnent autour des jeunes étoiles. L'équipe fait remarquer un point intéressant: malgré cette tendance observée chez les planètes de se former au sein de nuages contenant des éléments chimiques plus lourds, une étoile contenant de l'hydrogène et de l'hélium à très peu de bars a deux planètes qui orbitent autour d'elle.
HIP 11952, qui appartient à Cetus, une grande constellation au Nord, est située à environ 375 années-lumière de la Terre. Une étude des planètes sur les étoiles pauvres en métaux a permis à des chercheurs allemands d'identifier deux planètes géantes autour de cette étoile. Bien que ces planètes ne soient pas particulièrement inhabituelles, il est assez étonnant qu'elles orbitent autour d'une étoile si vieille et si pauvre en métaux.
Ces résultats, présentés dans la revue Astronomy & Astrophysics, soulèvent donc des questions quant aux facteurs nécessaires à la création d'une planète. Si les étoiles riches en métaux sont plus susceptibles de former des planètes, comment se sont formées les deux planètes autour de l'étoile HIP 11952 ?
Au commencement, l'univers ne contenait pratiquement aucun élément chimique autre que le l'hydrogène et l'hélium. Pratiquement tous les éléments plus lourds étaient produits au fil des ans dans les étoiles, avant d'être relâchés dans l'espace comme étoiles massives et de finir leur vie dans des explosions géantes appelées supernovae.
Veronica Roccatagliata de l'University Observatory de Munich, chercheur principal de cette étude des planètes relatives aux étoiles pauvres en métaux qui a mené à la découverte, explique : «En 2010, nous avons trouvé un exemple de ce premier système pauvre en métaux, HIP 13044. À l'époque, nous pensions qu'il s'agissait d'un cas unique. Aujourd'hui, nous réalisons qu'il pourrait exister plus de planètes autour des étoiles pauvres en métaux que ce que l'on ne pensait.»
HIP 13044 est maintenant surnommée «l'exoplanète d'une autre galaxie»; cette étoile fait probablement de ce que l'on appelle un courant stellaire, les restes d'une autre galaxie engloutie par la nôtre il y a des milliards d'années. Par rapport à d'autres systèmes exoplanétaires, HIP 11952 n'est pas seulement extrêmement pauvre en métaux mais on estime également qu'elle est âgée de plus de 12,8 milliards d'années, ce qui en fait l'un des systèmes les plus vieux que l'on connaît. Johny Setiawan de l'institut Max Planck pour l'astronomie à Heidelberg, en Allemagne, qui dirigeait l'étude sur HIP 11952, expliquait : «Il s'agit d'une découverte archéologique nous touchant de très près. Ces planètes se sont probablement formées peu de temps après que notre galaxie ne soit apparue.»
Les chercheurs espèrent maintenant découvrir et étudier davantage de systèmes planétaires de cette sorte de manière à pouvoir approfondir leurs théories sur la formation des planètes.
Cordis
|
|
|
|
|
|
|
|
Un moteur ultra-compact permettra à de petits satellites de gambader librement autour de la Terre et au-delà. Le premier prototype vient de sortir des laboratoires de l’Ecole Polytechnique Fédérale de Lausanne (E.P.F.L.). Les chercheurs ont pour ambition de baisser drastiquement les coûts de l’exploration spatiale.
Un décilitre de carburant pour atteindre la Lune ? Grâce au moteur ionique MicroThrust, les chercheurs de l’EPFL et leurs partenaires européens comptent inaugurer l’ère de l’exploration spatiale low-cost. Avec quelques centaines de grammes tout au plus, le dispositif est conçu pour prendre place dans de petits satellites, d’un poids compris entre un et 100 kilos. Il leur permettra de changer d’orbite terrestre, ou de rejoindre des destinations plus lointaines – des fonctions d’ordinaire réservées à de grands et coûteux engins spatiaux. Un premier prototype vient de sortir des laboratoires. Le système est d’ores et déjà pressenti pour équiper CleanSpace One – un nanosatellite nettoyeur de débris spatiaux également conçu à l’EPFL – ainsi que l’essaim de nanosatellites hollandais OLFAR, qui ira traquer les ondes d’ultra-basse fréquence derrière la Lune.
Le moteur est conçu pour être logé dans un satellite aussi compact que 10 centimètres de côté. Le prototype ne pèse qu’environ 200 grammes, carburant compris.
«Pour l’instant, les nano-satellites sont coincés dans leur orbite. Notre objectif, c’est de les en libérer», explique Herbert Shea, coordinateur du projet européen MicroThrust et directeur du Laboratoire de microsystèmes pour les technologies spatiales de l’EPFL. Les petits satellites ont le vent en poupe. Les coûts de fabrication et de lancement, notamment, sont moindres – à partir d’un demi-million de francs contre plusieurs centaines pour des satellites conventionnels. Mais il leur manque encore le système de propulsion qui les rendrait véritablement autonomes, pour des missions d’exploration ou d’observation.
- Un moteur qui ne brûle pas le carburant
Au lieu d’un carburant combustible, le moteur fonctionne grâce à un liquide dit «ionique». En l’occurrence, un composé chimique appelé EMI-BF4, généralement utilisé comme solvant. Il est constitué de molécules chargées électriquement – des «ions» - exactement comme le sel de cuisine, à la différence près qu’il est liquide à température ambiante. A l’aide d’un champ électrique, on attire puis on éjecte ces ions, afin de créer une poussée. C’est le principe du moteur ionique : on ne brûle pas le carburant, on l’expulse.
Le moteur conçu à l’EPFL éjecte le flux de ions par de minuscules buses – on en compte près de 1000 par centimètre carré. Le carburant est attiré par capillarité jusqu’à l’autre extrémité de la micro-buse, où les ions sont extraits par une tension d’environ 1000 volts, accélérés, puis propulsés à l’arrière du satellite. La polarité du champ électrique est inversée chaque seconde, afin que tous les ions – positifs et négatifs – soient éjectés.
Partenaire du projet, SystematIC Design a conçu le système électrique du moteur. En effet, si l’éjection des ions nécessite une tension électrique élevée, l’énergie disponible à bord d’un nano-satellite de 10 centimètres de côtés est limitée à quelques petites cellules solaires – en pratique, on compte un maximum de 4 watts de puissance. L’entreprise hollandaise est parvenue à mettre au point un système à même de contrecarrer cette difficulté.
- 40 000 km/h de vitesse de croisière, et un 0 à 100 km/h en… 77 heures
Après 6 mois d’accélération, le microsatellite passera de 24 000 km/h, soit la vitesse de lancement initiale, à près de 42 000 km/h. Le moteur ionique prend son temps. L’accélération n’est que d’environ un dixième de mm par seconde au carré, soit un 0 à 100 km/h en 77 heures ! Mais dans l’espace, où nul frottement ne vient contrecarrer le déplacement des corps, l’endurance compte plus que la puissance. «Nous avons calculé que pour atteindre l’orbite lunaire, un nanosatellite d’un kilo équipé de notre moteur ionique voyagerait environ 6 mois et consommerait 100 millilitres de carburant», explique Muriel Richard du Swiss Space Center de l’EPFL.
Le micro-moteur ionique devrait également équiper CleanSpace One – un microsatellite nettoyeur, qui a pour mission de désintégrer dans l’atmosphère des débris spatiaux. Pour atteindre l’une de ses cible, les cubesats suisses Swisscube ou Tlsat-1 actuellement hors d’usage, il lui faudra entre 2 et 3 mois et plus de 1000 révolutions terrestres, selon les scénarios calculés par le Swiss Space Center.
Les chercheurs disposent d’un peu plus d’une année pour finaliser leur système, qui pourrait être utilisé pour la première fois avec CleanSpace One, Le prototype, mis au point dans le cadre d’un projet européen et coordonné à l’EPFL, compte comme partenaires le Queen Mary and Westfield College au Royaume-Uni, les entreprises TNO et SystematIC Design B.V. (Hollande) ainsi que Nanospace AB (Suède).
Ecole Polytechnique Fédérale de Lausanne
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Pour la première fois, une équipe de recherche française multipartenariale a mis en évidence le rôle d’un insecticide dans le déclin des abeilles, non pas par toxicité directe mais en perturbant leur orientation et leur capacité à retrouver la ruche. Pour réaliser leur étude, les chercheurs ont collé des micropuces RFID sur plus de 650 abeilles. Ils ont ainsi pu constater l’importance du non-retour à leur ruche des butineuses préalablement nourries en laboratoire avec une solution sucrée contenant de très faibles doses d’un insecticide de la famille des « néonicotinoïdes », le thiaméthoxam, utilisé pour la protection des cultures contre certains ravageurs, notamment par enrobage des semences. Une simulation basée sur ces résultats laisse penser que l’impact de l’insecticide sur les colonies pourrait être significatif. Ces résultats ont été publiés dans la revue Science le 29 mars 2012.
Les questions sans réponse aujourd’hui sur le déclin des populations de pollinisateurs, qui touche les abeilles domestiques comme leurs homologues sauvages (bourdons, osmies, etc.), ont conduit tous les acteurs concernés à unir leurs forces. Ainsi, chercheurs (INRA, CNRS), et ingénieurs des filières agricoles et apicoles (ACTA, ITSAP-Institut de l’abeille, ADAPI) ont, dans le cadre d’un partenariat pluridisciplinaire sur l’évaluation du déclin des abeilles, étudié le rapport entre l’ingestion d’un insecticide de la famille des néonicotinoïdes et la mortalité des butineuses. Leurs travaux montrent que l’exposition à une dose faible et bien inférieure à la dose létale de cette molécule entraîne une disparition des abeilles deux à trois fois supérieure à la normale.
Pour réaliser leur étude, les scientifiques ont utilisé une méthodologie innovante : des micropuces RFID ont été collées sur le thorax de plus de 650 abeilles, ce qui a permis de contrôler individuellement leur entrée ou leur sortie de la ruche grâce à une série de capteurs électroniques. La moitié des individus a été nourrie avec une solution sucrée contenant une dose très faible d’insecticide, comparable à celle que les abeilles peuvent rencontrer dans leur activité quotidienne de butinage de nectar sur une culture traitée.
L’autre moitié, le groupe témoin, a reçu une solution sucrée sans insecticide. L’ensemble des 650 butineuses a ensuite été relâché à 1 kilomètre de leur ruche, une distance habituelle de butinage chez les abeilles domestiques. En comparant les proportions de retours à la ruche des deux groupes d’abeilles, les chercheurs ont évalué le taux de disparition imputable à l’ingestion du produit testé. L’équipe a mis en évidence un taux significatif de non-retour à la ruche des abeilles, par un phénomène de désorientation dû à l'intoxication à faible dose. Lorsqu'elle est combinée à la mortalité naturelle, cette disparition liée à l'insecticide aboutit à une mortalité journalière de 25 % à 50 % chez les butineuses intoxiquées, soit jusqu'à trois fois le taux normal (environ 15 % des butineuses par jour).
Afin d'évaluer l'impact de l’augmentation du taux de mortalité en période de floraison, ces valeurs ont été introduites dans un modèle mathématique simulant la démographie des colonies d'abeilles. Les résultats montrent que si la majorité des butineuses étaient contaminées chaque jour, l'effectif de la colonie pourrait chuter de moitié pendant le temps de la floraison – et jusqu'à 75 % dans les scenarii les plus pessimistes. Ce déclin démographique serait critique, à une période où la population de la colonie devrait atteindre un maximum, un préalable nécessaire au stockage de réserves alimentaires et à la production de miel.
Cette désorientation a donc le potentiel de déstabiliser le développement normal de la colonie, ce qui peut en outre la rendre vulnérable aux autres facteurs de stress que sont les pathogènes (varroa, Nosema, virus) ou les variations de la disponibilité des ressources florales naturelles. Cette étude indique ainsi qu'une exposition des abeilles butineuses à un insecticide néonicotinoïde pourrait affecter à terme la survie de la colonie, même à des doses bien inférieures à celles qui conduisent à la mort des individus.
À court terme, les partenaires de l’unité mixte technologique PrADE (Protection des Abeilles Dans l’Environnement) en lien avec les instituts techniques agricoles concernés ARVALIS-Institut du végétal et CETIOM (deux instituts techniques spécialistes des grandes cultures et notamment maïs et colza), mèneront des expérimentations en grandeur réelle, dans les conditions des pratiques culturales y compris pour la phase d’administration de l’insecticide, en utilisant cette même technologie RFID de suivi individuel des abeilles.
INRA
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Un nouveau gène impliqué dans les formes précoces de maladie d’Alzheimer a été découvert par l’équipe de recherche de Dominique Campion de l’Unité Inserm 1079 « Génétique du cancer et des maladies neuropsychiatriques » à Rouen. Les chercheurs ont montré que dans 5 familles sur 14 de patients atteints, des mutations apparaissaient sur le gène SORL1. Ce gène régule la production d’un peptide impliqué dans la maladie d’Alzheimer. Les résultats de cette étude sont publiés dans la revue Molecular Psychiatrydatée du 3 Avril.
Des mutations génétiques précises ont été identifiées comme jouant un rôle dans les formes précoces d’Alzheimer. Toutefois, il existe une sous-population de malades qui ne possède aucune mutation sur ces gènes. Comment des patients, ne possédant pas ces mutations préétablies, peuvent-ils être atteints précocement de la maladie d’Alzheimer ?
Pour répondre à cette question, l’équipe de Dominique Campion et de Didier Hannequin (Unité Inserm 1079 et Centre national de référence malades Alzheimer jeunes, CHU Rouen), a étudié les gènes de 130 familles atteintes de la forme précoce de la maladie d’Alzheimer. Ces familles ont été identifiées par 23 équipes hospitalières françaises dans le cadre du plan « Alzheimer ». Parmi ces familles, 116 portaient des mutations sur les gènes déjà connus. En revanche pour les 14 familles restantes, aucune mutation sur ces gènes n’avait été observée.
L’étude du génome des patients des 14 familles, grâce aux nouvelles techniques de séquençage complet de leur ADN, a permis de mettre en évidence des mutations sur un nouveau gène SORL1. Le gène SORL1 code pour une protéine impliquée dans la production du peptide β-amyloïde. Cette protéine est reconnue pour affecter le fonctionnement des cellules du cerveau.
Deux des mutations identifiées sont responsables d’une sous-expression de SORL1, laquelle a pour conséquence une augmentation de la production du peptide β-amyloïde. "Les mutations observées sur SORL1 semblent contribuer au développement de la maladie précoce d’Alzheimer. Toutefois, il reste à mieux préciser la manière dont sont transmises ces mutations sur le gène SORL1 au sein des familles" précise Dominique Campion.
Inserm
|
|
|
|
|
|
|
|
Reconnaître qu'un objet déjà exploré par une main est le même que celui présenté dans l'autre main est une capacité cérébrale importante appelée « transfert inter-main ». Cette activité reflète la compétence du cerveau à mémoriser de l'information sur un objet, à la maintenir en mémoire et à la comparer avec l'information obtenue par la main opposée. Grâce à l'imagerie médicale, on sait que le transfert d'informations repose sur l'intégrité de la partie postérieure du corps calleux. Constitué d'un ensemble de faisceaux de fibres, ce noyau relie les deux hémisphères cérébraux et assure ainsi la coordination des informations. A la maturité très lente, c'est la dernière structure cérébrale à se développer chez le fœtus. La question se pose donc de savoir à partir de quand il est fonctionnel.
En 2010, l'équipe d'Edouard Gentaz mettait pour la première fois en évidence la capacité des prématurés à mémoriser de façon tactile la forme des objets. Dans cette nouvelle étude, les scientifiques montrent que les prématurés de seulement 31 semaines de grossesse (soit 33 semaines d'aménorrhée), effectuent déjà le « transfert inter-main ». En effet, après avoir présenté dans la main gauche des bébés un objet déjà exploré par la main droite (et vice-versa), une diminution du temps de tenue est observée. En revanche, lorsqu'il s'agit d'un nouvel objet, les bébés le gardent plus longtemps en main. Ces résultats montrent donc que les prématurés peuvent reconnaître avec la main opposée, un objet déjà familier de l'autre main.
Cette propriété permet d'émettre l'hypothèse que le corps calleux, bien qu'immature, est déjà fonctionnel et suffisamment développé dès la 31e semaine de grossesse. Les chercheurs insistent ainsi sur l'importance de prendre en compte les capacités tactiles des prématurés et parlent de leur influence sur le développement cérébral et sur la santé de ces bébés. Aussi, ils proposent certaines recommandations comme : éviter au maximum toute contention des mains des bébés (moufles, mains attachées), privilégier la liberté de mouvement et favoriser l'exploration tactile en respectant les phases de veille/sommeil. Ces travaux sont menés en étroite collaboration avec les services de maternité du CHU de Grenoble qui ont déjà mis en place ces pratiques dans les soins qu'ils prodiguent aux prématurés.
CNRS
|
|
|
|
|
|
|
|
En étudiant de près des leucémies et des lymphomes, ainsi que les cellules qui les constituent, Irving Weissman et ses collègues du Stanford Medical Center, ainsi que d'autres institutions américaines, norvégiennes, et suisses ont découvert qu’à l’instar des cellules saines, certaines cellules tumorales utilisent la protéine CD47 dans le but de se cacher du système immunitaire. En effet, cette molécule informe ce dernier qu’il est en présence de tissus sains qu'il ne faut pas attaquer. S'il est possible de passer outre cette protection, le système immunitaire pourrait détecter les cellules cancéreuses et les détruire.
Les chercheurs ont donc mis en place un médicament dont le but est de bloquer l’action de la protéine CD47. Tout d’abord, ils ont réalisé leur expérience in vitro. En présence d’anti-CD47, ils ont constaté que les macrophages du système immunitaire reconnaissent les cellules cancéreuses et les détruisent.
Fort de ces résultats, les chercheurs ont fait des tests sur des animaux. Ils ont implanté à des souris du tissu tumoral humain de cancer du sein, avant de leur administrer de l’anti-CD-47. Très vite, ils ont découvert que leur traitement avait permis de stopper la croissance cellulaire des tumeurs. Les rongeurs traités ont vu leur durée de vie allongée. Toutefois, les premiers résultats montrent que dans certains cas, il existe une résistance des cellules tumorales. Le traitement n’est donc pas toujours efficace.
Par ailleurs, les chercheurs ont continué leurs investigations et ont découvert que la protéine CD47 est présente en grande quantité dans un grand nombre de cancers, tels que celui du sein, du côlon, de la prostate, des ovaires, de la vessie et du foie. Leurs travaux ont aussi permis de montrer que chez la souris, l’anti-CD47 était efficace sur 7 types de cancers différents (sein, ovaire, côlon, vessie, cerveau, foie, prostate).
D’après ces données, les chercheurs estiment que dans la lutte contre le cancer, cibler la protéine CD47 est une piste innovante pour la mise en place de nouvelles thérapies. Afin de continuer leurs travaux et d’envisager à court terme un essai clinique sur l’homme, l’équipe du Stantford Medical Center vient de recevoir une subvention de 20 millions de dollars…
Information Hospitalière
|
|
|
|
|
|
|
|
Deux initiatives allemandes indépendantes ont réalisé, pour la première fois au niveau mondial, la reprogrammation directe de fibroblastes en cellules souches neurales, l'une à partir de cellules de peau à l'Institut Max Planck de biomédecine moléculaire de Münster (Rhénanie du Nord-Westphalie, NRW), l'autre, en partant de tissu conjonctif, au Centre de recherche "LIFE & BRAIN" de l'Institut de neurobiologie reconstructive de l'Université de Bonn (NRW). Les deux études seront publiées dans la revue "Cell Stem Cell" le 6 avril 2012.
A Münster, le groupe de Hans Schöler a obtenu des cellules souches neurales directement en cultivant, dans des conditions particulières et avec une combinaison de facteurs de transcription spécifiques (Brn4/Pou3f4, Sox2, Klf4, c-Myc, plus E47/Tcf3), des cellules de peau prélevées sur des souris.
L'équipe de Frank Edenhofer, à Bonn, a réussi une avancée similaire, mais à partir de cellules du tissu conjonctif de souris. Les scientifiques ont ici utilisé quatre facteurs de transcription : Sox2, Klf4, c-Myc, ainsi que Oct4 sur une période limitée. "Nous avons ainsi démontré que la reprogrammation de cellules du corps ne doit pas forcément passer par des cellules souches "pluripotentes"", explique Hans Schöler. Les cellules pluripotentes peuvent en effet se différencier en tout type de tissu et apparaissaient donc jusqu'ici comme le passage obligatoire avant une redifférenciation en cellules du type voulu. Elles présentent cependant l'inconvénient de pouvoir donner des cellules cancéreuses. Les cellules souches obtenues cette fois-ci par les chercheurs de Münster et Bonn sont "multipotentes" et ne peuvent donc se différencier qu'en certains types de tissus - ici en toute sorte de tissus nerveux - ceci réduisant grandement la probabilité d'apparition de tumeurs.
Ces deux projets, qui sont encore de l'ordre de la recherche fondamentale, réduisent le temps, les coûts, et les risques liés à la reprogrammation des cellules et pourraient bénéficier un jour à la médecine régénérative. Il faudra cependant tout d'abord étudier le comportement - notamment la stabilité - des cellules souches à long terme et transférer les résultats obtenus chez la souris à l'homme.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Le sommeil s'accompagne d'une réduction de notre conscience du monde extérieur et de nous-mêmes. Pourquoi ? L'équipe de Habib Benali, directeur de recherche Inserm du laboratoire d'imagerie fonctionnelle (Unité 678 Inserm/UPMC) s'est penchée sur ce phénomène. Les chercheurs ont montré, lors du sommeil lent, que l'activité du cerveau se réorganise en des réseaux qui communiquent moins intensément que durant l'éveil. Les résultats de cette étude de l'activité cérébrale sont publiés dans la revue PNAS.
Le sommeil lent profond est un état de sommeil durant lequel notre conscience du monde extérieur et de nous-mêmes est considérablement réduite. Pourtant, les neurones qui composent notre cerveau sont toujours très actifs lors de cette phase. La conscience n’est donc pas simplement liée à l'activité du cerveau mais plutôt à sa capacité de traiter l’information. C'est ce que les chercheurs du laboratoire d'imagerie fonctionnelle (Inserm/Université Pierre et Marie Curie) de la Pitié Salpêtrière, en collaboration avec le Centre de recherche du Cyclotron de Liège, ont analysé dans cette étude.
En mesurant la quantité d’information échangée entre différentes régions cérébrales, les chercheurs ont pu montrer que le flux d’information dans le cerveau endormi différait de celui observé à l’éveil. "Pendant le sommeil, l’activité du cerveau semble s’organiser en une multitude de réseaux restreints, à l’intérieur desquels l’information s’échange autant, sinon plus qu’à l’éveil, alors que la communication entre ces réseaux diminue", explique Habib Benali, directeur de recherche à l'Inserm.
La figure montrée par l’Inserm indique que le cerveau (B) comporte différents réseaux (cercles de couleur) qui regroupent plusieurs régions cérébrales (petits points noirs périphériques). La longueur des traits noirs, qui relient ces structures (cercles colorés et points noirs), indique leur tendance à traiter l'information de manière autonome. Lors du sommeil (situation à droite), la distance entre les structures augmente, signant un traitement plus local de l’information dans ces petites assemblées de régions cérébrales.
L'équipe de recherche conclut à une réorganisation hiérarchique des flux d’informations durant le sommeil lent car celle-ci s’observe de manière répétée à plusieurs niveaux dans le cerveau. "Nous suggérons que la modification des échanges d’informations entre régions cérébrales diminuerait la capacité du cerveau à générer une représentation unifiée de soi et du monde extérieur", souligne Habib Benali.
Inserm
|
|
|
|
|
|
|
|
Chaque individu héberge 10 puissance 14 bactéries dans son intestin, soit 10 à 100 fois le nombre de cellules du corps humain. Cette flore intestinale, ou microbiote intestinal, est composée d'une grande diversité d'espèces qui sont pour la plupart spécifiques à chaque individu. On peut parler d'une sorte de "code barre bactérien" propre à chaque personne. Le tube digestif du foetus est stérile et donc dépourvu de bactéries. Le processus de colonisation microbienne débute au moment de la naissance, sous la dépendance de l'exposition aux micro-organismes d'origine maternelle (fécale, vaginale et cutanée), de l'alimentation et de l'environnement. Le microbiote devient stable sur les plans structurel et fonctionnel vers l'âge de deux ans. Ces micro-organismes qui colonisent notre système digestif et établissent une symbiose qui durera toute la vie, sont indispensables pour le maintien de nombreuses fonctions essentielles à notre l'organisme. Sans eux, la digestion des aliments serait altérée, les pathogènes intestinaux pourraient nous coloniser, le métabolisme du cholestérol serait différent et notre système immunitaire serait atrophié.
- Comment le microbiote nous protège ?
Des éléments de réponse à cette question sont donnés dans une étude publiée le 22 mars 2012 dans la revue Science. Un groupe de chercheurs américains montrent que chez la souris, l'exposition à des "microbes", en début de vie, réduit la quantité de cellules iNKT (pour "invariant natural killer T"). Les lymphocytes T Natural Killer (NKT), représentent une sous population de lymphocytes T, cellules responsables de l'immunité cellulaire. Ces cellules expriment également des marqueurs de cellules NK. Comme toutes les cellules NKT, les iNKT reconnaissent la molécule CD1d à la surface des cellules cibles (à la place du MHC reconnu par les lymphocytes T), mais le récepteur exprimé à leur surface, liant CD1d, est ""invariant". Les lymphocytes iNKT sont des cellules immunitaires qui aident à combattre les infections, mais qui peuvent également se retourner contre le corps, provoquant une variété de troubles tels que l'asthme ou une maladie intestinale inflammatoire. Ces lymphocytes exercent leurs fonctions immunorégulatrices via la production de cytokines.
Cette étude confirme la théorie "hygiéniste" postulée depuis déjà 20 ans, affirmant que l'amélioration des conditions d'hygiène dans les pays développés favorise le développement d'allergies et de maladies auto-immunes en limitant la stimulation et donc la maturation du système immunitaire des enfants. Si cette théorie fait consensus aujourd'hui, les mécanismes sous-jacents de cette protection demeurent incompris. Pour répondre à cette question, Denis Kasper, Richard Blumberg et leurs collègues de l'école de médecine de Harvard à Boston (Etats-Unis), ont observé la susceptibilité à deux maladies, l'asthme et la colite ulcéreuse (une forme de maladie inflammatoire chronique intestinale), chez des souris axéniques (i.e. dépourvues de microbiote intestinal) et des souris conventionnelles exemptes de pathogènes. Il apparaît que les souris axéniques sont beaucoup plus susceptibles de contracter l'asthme ou la colite ulcéreuse que les souris conventionnelles et ont également une plus grande quantité de cellules iNKT dans les poumons et le colon. Ces résultats suggèrent que l'exposition aux microbes diminue le niveau d'iNKT et rend les souris moins propices aux maladies inflammatoires.
L'introduction de bactéries chez les souris axéniques au stade adulte, ne change rien à la donne. En revanche, la colonisation bactérienne de l'intestin des souris axéniques en gestation peu avant la mise-bas protège leur progéniture des maladies. Cette dernière observation suggère que l'âge de l'exposition aux bactéries est primordial pour les mammifères. De même, le blocage par un antigène de l'activation des cellules iNKT en début de vie, protège les souris contres les deux maladies.
A la recherche d'un mécanisme permettant de lier les cellules iNKT et les bactéries de la flore, les chercheurs se sont penchés sur une protéine, produite par les cellules épithéliales, nommée CXCL16. Les expériences réalisées montrent que l'augmentation de l'expression de cette chimiokine entraîne une augmentation du nombre de cellules iNKT. Les scientifiques soulèvent l'hypothèse que les bactéries empêchent la production d'iNKT en bloquant l'expression de la chimiokine CKCL16. Selon Everett Meyer de l'université de médecine de Stanford en Californie, les auteurs de cette étude "ont identifié les mécanismes immunitaires fondamentaux d'un fait que nous avions identifié depuis des années mais que nous étions incapables d'expliquer".
- Le séquençage du microbiome, notre "autre génome"
Si ces résultats sont très intéressants, il reste difficile de savoir si les humains empruntent une voie similaire. En effet comme le souligne Mitchell Kronenberg du "La Jolla Institute for Allergy and Immunology" (LIAI) à San Diego (Etats-Unis), "il n'existe pas d'humains axéniques", nous possédons tous un microbiote. La prochaine étape est donc de trouver quelles sont les espèces bactériennes de la flore qui sont favorables au système immunitaire. Pour cela une nouvelle approche de biologie moléculaire appelée métagénomique a vu le jour. Elle permet le séquençage massif et à haut débit de l'ADN bactérien et permet d'en révéler non seulement les espèces présentes et inconnues mais aussi les fonctions majeurs assurées par le microbiote. Objectif : mettre à jour des associations entre flore bactérienne et maladies chroniques.
Deux projets visant à caractériser l'ensemble du microbiome (génome du microbiote) ont vu le jour. L'un en Europe, c'est le projet MetaHIT (pour "Metagenomics of the Human Intestinal Tract") coordonné par Dusko Ehrlich, de l'unité "Génétique microbienne" de l'INRA (Jouy en Josas, France) et l'autre aux Etats-Unis, où le projet s'intitule Human Microbiome Project. MetaHIT a généré en 2010 le premier catalogue des gènes microbiens contenant plus de 3 millions de gènes soit 80 à 150 fois plus que le nombre de gènes du génome humain. Ceci illustre la diversité des fonctions et des organismes présents dans le tube digestif humain. Du 19 au 21 mars 2012 à Paris (France), s'est tenu l' "International Human Microbiome Congress" (IHMC 2012) organisé par MetaHIT, l'occasion pour les chercheurs spécialistes du domaine de se retrouver pour faire le point sur les nouvelles connaissances apportées par ces deux projets.
Les résultats de cette étude apportent une pierre de plus à l'édifice de la compréhension des mécanismes de renforcement du système immunitaire par les bactéries de la flore intestinale. Ils ouvrent la voie à des analyses complémentaires permettant d'explorer, par des techniques plus globales de caractérisation du microbiote, les hypothèses avancées. Enfin ils montrent que contrairement à ce que nos mères ont pu nous apprendre, trop de propreté peut nuire à notre santé !
Bulletins Electroniques
|
|
|
|
|
|
|
|
La plupart des traitements et médicaments contre le cancer se focalisent sur les tumeurs primaires alors que les métastases sont encore aujourd’hui à l’origine de 90 % de la mortalité. Depuis quelques années, les chercheurs commencent à comprendre les mécanismes de développement des métastases et ils veulent vérifier l’hypothèse que des inhibiteurs bloquant l’activité de l’enzyme kinase intervenant dans la voie de la cofiline pourraient permettre de bloquer le processus qui mène aux métastases.
Laurence Lafanechère, directeur de recherche à l’iRTSV du CEA Grenoble, a mis au point un test cellulaire pour sélectionner, par criblage à haut débit (30 000 molécules), des agents bloquant notamment la mobilité des cellules métastasiques responsables de la dispersion du cancer dans l’organisme. Après une série de tests in vivo sur plus de 100 kinases, Laurence Lafanechère dispose de la preuve que sa molécule détient une bonne efficacité thérapeutique. Cette molécule se nomme “Liminib”, et elle a ce talent d’inhiber de manière sélective l’enzyme LIM Kinase, une enzyme impliquée dans la motilité des cellules métastasiques. Laurence Lafanechère et son équipe de l’Institut Albert- Bonniot/CNRS, l’ont découverte en mettant au point un test cellulaire permettant de sélectionner, par criblage à haut débit, des agents ciblant des régulateurs du cytosquelette. Alors identifiée, cette molécule a révélé sa toxicité sur certains cancers, y compris ceux ayant développé des mécanismes de résistance aux traitements utilisés en chimiothérapies conventionnelles.
Explication de Laurence Lafanechère : « La plupart des thérapies contre le cancer se focalisent sur les tumeurs primaires alors que les métastases sont encore aujourd’hui à l’origine de 90 % de la mortalité. De nouveaux médicaments, actifs sur les cancers résistants et empêchant la formation de métastases constitueraient une percée thérapeutique majeure. » Comment agiraient ces médicaments ? « Les microtubules sont des filaments enchevêtrés que la cellule assemble ou désassemble pour en faire des autoroutes, pour transporter tout ce qu’il faut d’un endroit à l’autre ou pour construire l’appareil mitotique, qui permet à la cellule de se diviser correctement et de distribuer comme il faut les chromosomes lors de la division. »
« Quand on stabilise les microtubules, on “fige” la cellule et on l’empêche de se diviser. Les médicaments qui stabilisent les microtubules, en empêchant les cellules de se diviser, ont des propriétés anticancéreuses. C’est le cas du Taxol® ou de la Navelbine®. Seul problème : les cellules deviennent extrêmement résistantes… » « La plate-forme de criblage, que j’ai mise en place au CEA, avant de rejoindre l’institut Albert-Bonniot, et que j’ai portée durant dix ans m’a permis de tester un très grand nombre de molécules sur un grand nombre de cibles biologiques, impliquées dans une pathologie. Ce qui accroît considérablement la chance de trouver une molécule active qui pourrait être un candidat médicament. » « Nous avons décidé de nous concentrer sur la recherche de molécules stabilisant les microtubules. Ensuite, nous nous sommes servis de la molécule comme d’un “hameçon" pour trouver la cible. » Cette molécule pourrait à l’avenir être utilisée en combinaison avec d’autres médicaments administrés en chimiothérapie standard, dans le traitement préventif après chirurgie des cancers, comme adjuvant de radiothérapie.
Institut Albert-Bonniot
|
|
|
|
|
|
|
|
Première cause de mortalité dans le monde, le cancer fait l'objet d'une recherche qui s'intensifie un peu plus chaque année. Discret jusqu'à présent sur la carte de la recherche en France et en Europe, Lyon qui n'apparaissait guère, y figure désormais de manière de plus en plus visible. Pour preuve, la Ville a été dotée l'année dernière de près de 30 millions d'euros supplémentaires grâce à des processus de labellisations. Le choix fait, il y a sept ans, du partenariat public/privé dans ce domaine s'est révélé payant. Ce qui a déjà permis la commercialisation d'un robot, la mise en route de développements cliniques et de start-up.
Sait-on, alors que vient de se terminer le salon Innorobot de Lyon qu'un des premiers robots chirurgiens a été conçu en Rhône-alpes : Vicky. Il s'agit d'un robot endoscopique destiné à intervenir dans le cadre de certaines chirurgies du cancer. Développé par la société grenobloise « Endocontrol », il est désormais utilisé dans le monde entier. Vicky a été le premier produit commercialisé depuis que l'écosystème de lutte contre le cancer s'est unifié il y a sept ans sous l'intitulé d'un acronyme très féminin : CLARA (Cancerôpôle Lyon Auvergne Rhône-Alpes). Une structure qui a su rassembler aux côtés de 200 équipes de chercheurs et de 80 équipes cliniques, près de 60 entreprises innovantes.
C'était le postulat de départ, original, alors : le partenariat public/privé qui porte un peu plus chaque année ses fruits. Même s'il faut de dix à quinze ans pour qu'une nouvelle molécule puisse être commercialisée sur le marché, d'ores et déjà des projets sont en développement clinique. Cela signifie que des patients sont actuellement traités par milliers dans le cadre d'essais, visant à assurer la validité d'un vaccin thérapeutique (pour le traitement d'une forme de mélanome), voire d'un dispositif à base d'ultras sons (Hifu : lutte contre les cancers colorectaux) ou de radio (Synfrizz, pour une forme de sarcome).
Pascal Deschaseaux, directeur général de Gelarc-Centre hospitalier de Lyon Sud, s'en félicite : « Lyon a réussi à se hisser parmi les sites de recherche contre le cancer ayant une vraie visibilité à l'échelon international. Lyon était connu comme leader pour les maladies infectieuses et les vaccins. On peut désormais y rajouter le cancer.» Autosatisfaction excessive ? Les événements qui ont marqué, tout au long de l'année dernière, la recherche contre le cancer à Lyon prouvent que non. En 2011, l'écosystème lyonnais a bénéficié de 30 millions d'euros supplémentaires, et ce dans le cadre d'une vive concurrence, grâce à la labellisation de quatre programmes d'excellence en oncologie.
Lyon a ainsi été l'année dernière labellisé « Labex » ( laboratoire d'excellence) qui a pour but de faire émerger des laboratoires ou groupes de laboratoires reconnus à l'international (11 millions d'euros sur douze ans). Doté de 9,8 millions d'euros sur cinq ans, le programme « Lyric » a, lui, pour but d'augmenter et d'amplifier ce que l'on appelle la recherche de transfert et le développement d'applications cliniques, ainsi que le développement de thérapeutiques personnalisées.
La création de l'Institut Carnot Lymphome (Calym), un consortium, en fait, permet d'ores et déjà à la recherche lyonnaise de se positionner comme leader européen dans l'innovation et le transfert, concernant cette forme très développée de cancer. La visibilité se fera aussi à travers de la formation, car aussi étonnant que cela puisse paraître, il n'existe pas de formation dédiée à l'oncologie. Le projet « DEVweCAN » va ainsi permettre la mise en place d'ici 2013 d'un Master en oncologie et de développer des liens avec de grandes institutions internationales dont le MIT américain (12 millions d'euros sur 10 ans). « Nous n'avons pas voulu nous disperser dans tous les sens. Nous avons ciblé des domaines où nous avions la possibilité de figurer parmi les meilleurs », ajoute Pascal Deschaseaux. Même si les retombées issues de la recherche doivent être appréhendées dans la durée, d'ores et déjà des ponts ont été créés avec de grandes sociétés pharmaceutiques comme Roche, Novartis ou Amgen. Sans oublier de plus petites car un terreau de start-up spécialisées en oncologie est aussi en train de voir le jour : sept d'entre elles gravitent autour du CLARA, tandis que d'autres de plus grande taille ont bénéficié de 90 millions d'euros.
Lyon Entreprises
|
|
|
|
|
|
|
|
Les facteurs de risque cardiovasculaire observés chez les enfants obèses incluent une baisse du HDL cholestérol (HDL-C), une élévation du LDL-C et des triglycérides, une élévation de la pression artérielle et une baisse de la tolérance au glucose. De surcroît, d’autres facteurs sont en relation avec l’inflammation, évaluée par la CRP et une cytokine pro-inflammatoire l’IL-6, élevées chez les enfants obèses pré-pubertaires. Les obèses sont sujets à une carence en vitamine D qui pourrait être également un facteur de risque cardiovasculaire. Des études récentes chez l’adolescent ont montré une association inverse entre le taux de 25 OH-D, la glycémie et le taux de triglycérides et directe avec l’HDL-C, indépendante du poids.
Des chercheurs en nutrition de Boston ont étudié 263 enfants, d’âge moyen 11,7 ± 1,5 ans, en fin d’hiver, habitant dans une agglomération défavorisée. La majorité d entre eux (70,5 %) bénéficiait de la cantine gratuite ou à taux réduit. Les « Caucasiens » représentaient 36,5 % de l’échantillon, suivis des Hispaniques (30 %), des Asiatiques (8,5 %), des Noirs (6,9 %), 18,1 % étant multiethniques selon la déclaration des parents. Près de 45 % (117) des enfants étaient en surpoids ou obèse ; 75 % étaient déficitaires en vitamine D (25 OH-D<50 nmol/l, 20 ng/ml) et seuls 9 d’entre eux avaient des taux ≥ 75 nmol/l (30 ng/ml), concentration optimale recommandée.
Ces enfants déficitaires appartenaient plus volontiers aux minorités ethniques et aux catégories ne payant pas la cantine. Au total, 45 % des enfants avaient au moins une anomalie du profil lipidique : cholestérol total 22,2 %, triglycérides 12,7 %, HDL-C 20,7 %, LDL-C 15,6 %. Les taux de CRP, distribués de façon très inhomogène (médiane 0,2 mg/l de 0,1 à 17,6 mg/l), étaient à 78 % au-dessus des taux de détection. Cependant, les facteurs individuels de risque cardiovasculaire n’étaient pas différents selon l’existence ou non d’un déficit en vitamine D. En analyse de régression multiple, le taux de 25 OH-D n’était pas corrélé à l’IMC mais après contrôle des facteurs co-variants, avec la CRP (p<0,05) et de façon marginale inversement associé avec le cholestérol total et la LDL-C (P<0,10). L’IMC exprimé en Z scores était associé à une élévation des triglycérides, de la CRP, de l’IL 6 et à une baisse de l’HDL-C (p<0,01).
En conclusion, le déficit en vitamine D a une prévalence élevée en fin d’hiver dans les populations étudiées. Ce déficit largement répandu peut contribuer à l’impossibilité de démontrer l’association entre taux de 25 OH-D, IMC et autres facteurs de risques cardiovasculaires, à l’exception de l’élévation de la CRP.
JIM
|
|
|
|
|
|
|
|
L'asthme allergique est une maladie respiratoire chronique affectant 300 millions de personnes dans le monde. Le nombre d'individus asthmatiques a doublé ces dix dernières années et près de 250 000 personnes meurent prématurément chaque année en raison de cette affection. Dans la majorité des cas, l'asthme est causé par une réactivité anormale à des substances de l’environnement appelées allergènes. D’un point de vue physiologique, cette hypersensibilité se traduit par une inflammation importante au niveau des bronches et des bronchioles des individus. Leur capacité à respirer correctement est alors altérée.
Le traitement actuel consiste à administrer des corticoïdes qui traitent les symptômes et suspendent temporairement la maladie sans toutefois la guérir. Un traitement alternatif et pérenne de l'asthme allergique est basé sur un protocole d'immunothérapie spécifique communément appelé "désensibilisation". L'administration répétée de doses croissantes d'allergène vise à diminuer l’hypersensibilité et réduire les symptômes lors d’une exposition ultérieure. Néanmoins, l’efficacité de ce protocole reste limitée et très variable selon les patients.
Les chercheurs ont donc imaginé une technique de vaccination basée sur l’ADN de la substance allergisante. "Plutôt que d’administrer des extraits d’allergènes de manière répétée afin de diminuer la sensibilité, nous avons travaillé à partir de séquences d’ADN spécifiques (de l'allergène) responsables de l’allergie. Quelques études ont montré le potentiel thérapeutique de cette stratégie mais il fallait trouver des techniques s’assurant de la faisabilité chez l’homme", explique Bruno Pitard, Directeur de l’équipe Innovations en Biothérapie de l’Institut du thorax (CNRS/Inserm/Université de Nantes). Le passage à l’homme exige effectivement que le traitement soit efficace à partir d’une faible dose d'ADN injectée.
Les chercheurs ont d’abord cherché à prouver l’efficacité de cette vaccination à base d’ADN contre l'allergène spécifique, Derf1, dans un modèle animal pertinent mis au point par l’Equipe Pathologies Bronchiques et Allergies dirigée par Antoine Magnan. En Europe, Dermatophagoides farinae 1 (Derf1) est en effet un allergène très commun véhiculé par l’acarien Dermatophagoides farinae. Plus de la moitié des patients allergiques aux acariens produisent des anticorps de type IgE spécifiques (Derf1) contre cette substance et caractéristiques de la maladie.
En pratique, les chercheurs ont associé les séquences génétiques d’intérêt de l’allergène Derf1 avec un nanovecteur constitué d’un polymère synthétique. Cette séquence d’ADN, transportée par une sorte de "taxi moléculaire" dans les cellules musculaires, assurant la synthèse protéique de l’allergène, a permis de moduler la réponse allergique aux acariens chez les animaux asthmatiques.
Le vaccin mis au point dans un modèle de souris saines a ensuite été optimisé dans un modèle de souris asthmatiques. Chez ces dernières, il déclenche une fabrication d’anticorps spécifiques anti Derf1 et une réponse cellulaire spécifique de Derf1, orientant ainsi le système immunitaire vers une réponse non allergisante, protectrice lorsque l’allergène est rencontré. Les deux injections nécessaires et administrées à 3 semaines d’intervalle ont réduit de manière significative l'hypersensibilité des voies aériennes et les niveaux de cytokines inflammatoires qui étaient en revanche présentes dans les poumons de souris asthmatiques non vaccinées. Ces nouveaux résultats valident tout le potentiel de ce nouveau nanovecteur pour la vaccination à ADN, et est en cours de développement préclinique réglementaire pour les futurs essais cliniques chez l’Homme.
Inserm
|
|
|
|
|
|
|
|
Maladie neurologique rare, endémique de certaines régions isolées de la Réunion, l’anorexie sévère du nourrisson serait due à un géne « sauteur ». C’est-à-dire une séquence d’ADN composée de différents éléments répétés dans le génome, très longtemps considérés par les scientifiques comme inutiles. C’est ce que révèle une étude menée par des chercheurs de l’Inserm, qui vient d’être publiée dans les Proceedings of the National Academy of Sciences (PNAS).
Le syndrome de la Ravine est une forme grave et mortelle d’anorexie du nourrisson. Symptomatique et caractéristique de régions reculées de la réunion entourées de ravines, d’où son nom, cette maladie héréditaire se déclare chez l’enfant avant son premier anniversaire. Très vite, celui ci présente des signes d’anorexie, accompagnés de vomissement et d’une disparition de la matière blanche du cerveau. Fatal, ce syndrome serait dû à la trop forte consanguinité observée chez les habitants de ces contrées.
Afin de mieux comprendre les origines génétiques de cette maladie neurologique, Alexandra Henrion Caude et ses collègues de l’Institut national de la santé et de la recherche médicale (Inserm) et de l’Université Paris Descartes ont étudié le profil génétique de 9 familles vivant dans ces régions reculées. Dans certaines d’entre elles, des enfants ont été touchés par le syndrome de la Ravine. Ils ont ainsi découvert chez ces derniers une mutation ponctuelle sur un gène dit « sauteur » non codant. C’est la première fois que des travaux scientifiques associent une maladie héréditaire humaine et une mutation de ce type. Par ailleurs, d’après les chercheurs, une seule modification sur le gène pourrait engendrer la maladie.
En conclusion de l’article paru dans les PNAS, Alexandra Henrion Caude estime que ce type de gène, composé d’éléments répétés du génome pourrait bien jouer un rôle dans le développement cérébrale du fœtus et de l’enfant…
Information Hospitalière
|
|
|
|
|
|
|
|
Une étude préliminaire conduite par des médecins français a montré l'efficacité du baclofène à de très fortes doses contre la dépendance à l'alcool, ouvrant la voie à un essai clinique pour évaluer précisément l'utilisation de ce relaxant musculaire pour traiter l'alcoolisme. Le baclofène est un médicament ancien, initialement prescrit en neurologie, mais de plus en plus utilisé en France hors AMM (autorisation de mise sur le marché) dans le traitement de la dépendance à l'alcool. Sa popularité a explosé en 2008 avec la publication du livre Le dernier verre d'Olivier Ameisen. Ce cardiologue, devenu alcoolique, y racontait son auto-expérimentation de ce médicament et comment, pris à de très fortes doses, il avait supprimé son envie de boire, le «craving».
«On pense qu'il y a 20 000 à 30 000 personnes qui prennent du baclofène en France, pour des problèmes d'alcool, hors AMM. C'est beaucoup», constate le Professeur Philippe Jaury (université Paris-Descartes), auteur principal de l'étude préliminaire publiée en ligne dans la revue Alcohol and Alcoholism. Avec un autre médecin, Renaud de Beaurepaire (Centre hospitalier Paul-Giraud), un des premiers à avoir prescrit du baclofène à fortes doses en France, il a inclus 181 patients, gros consommateurs d'alcool, dans une étude «ouverte». Une évaluation a été possible pour 132 d'entre eux. Après une année de traitement avec le baclofène, 80 % de ces 132 patients étaient devenus soit abstinents (78), soit consommateurs modérés (28). En considérant comme «échecs» les patients «perdus de vue», c'est-à-dire pour qui l'évaluation complète n'a pas pu être possible, le taux de succès atteint encore 58 %. «Ça permet de dire que ça marche mieux que ce qu'on a actuellement», souligne le Professeur Jaury. Le taux de réussite au bout d'un an de traitement avec les deux principaux médicaments aujourd'hui utilisés, naltrexone et acamprosate, est estimé entre 20 et 25 %.
Cette étude préliminaire permet également d'asseoir le protocole d'un essai clinique comparatif qui devrait démarrer en mai et se terminer fin 2013. Cet essai sera piloté par le Professeur Jaury et mobilisera 60 médecins investigateurs. Il inclura 320 patients alcooliques suivis sur une année, divisés en deux groupes, l'un prenant du baclofène, l'autre un placebo. Les doses de médicament seront augmentées très progressivement, dans la limite de 300 milligrammes par jour, avec l'objectif de supprimer le «craving». «Dans l'étude préliminaire, on est monté jusqu'à 300, 350, 400 mg», indique le médecin. La dose moyenne efficace à un an était estimée entre 130 et 140 mg. Dans son livre, Olivier Ameisen évoquait une posologie quotidienne de 70 à 160 mg, après avoir atteint 270 mg. Les effets secondaires le plus souvent observés avec les fortes doses dans l'étude préliminaire ont été la fatigue ou la somnolence, l'insomnie, les vertiges et les troubles digestifs.
«C'est vrai que plus on va en prescrire, plus on risque d'avoir des effets secondaires un peu bizarres, comme tous les médicaments», reconnaît le Professeur Jaury. Mais, ajoute-t-il, «on a quand même un certain recul avec la sclérose en plaques pour laquelle le baclofène peut être utilisé à des doses importantes». «Les patients font pression», ajoute-t-il, comme en témoignent les forums de discussion sur Internet.
Cyberpresse
|
|
|
|
|
|
|
|
La morphine mime l’action de molécules produites naturellement par le cerveau, les endorphines. Utile et utilisée depuis plusieurs siècles pour soulager les douleurs intenses, elle entraîne néanmoins de graves effets secondaires. L’idéal serait donc de pouvoir conserver les effets bénéfiques de la morphine sans ses effets secondaires. L’explication vient d’être apportée par une équipe de chercheurs de l’Inserm en collaboration avec des scientifiques américains de Stanford, qui ont pu identifier en quoi les mécanismes morphine vs endorphines diffèrent. Ces résultats ont été présentés dans l’édition du 21 mars de Nature.
La morphine est un composé majeur de l’opium, extrait du pavot et connu pour ses propriétés psychotropes, sédatives et analgésiques. L’action de la morphine est relayée par les récepteurs µ-opiacés exprimés à la surface des cellules du système nerveux central. Ces récepteurs font partie d’une superfamille de protéines, les récepteurs couplés aux protéines G (RCPG) qui sont la cible d’environ 30 % des médicaments actuellement sur le marché.
Au niveau moléculaire, la morphine mime l’action des endorphines, ces molécules produites naturellement dans le cerveau. Son utilisation clinique est limitée par le développement d’un phénomène de tolérance obligeant à augmenter la dose de morphine au fur et à mesure pour maintenir l’effet thérapeutique et par la dépendance. A ces limites s’ajoutent de graves effets secondaires liés à une réponse cellulaire différente de celle induite par les endorphines. Un mode de fixation différent aux récepteurs du cerveau : Les chercheurs ont découvert que si la morphine et les endorphines se lient au même récepteur, elles stabilisent les récepteurs dans des conformations spatiales distinctes.
« C’est la toute première fois que nous réussissons à visualiser la structure 3D d’un tel complexe pour cette famille de récepteur », expliquent-ils. La structure 3D des récepteurs du cerveau sur lesquels se fixent la morphine ou les endorphines, est probablement différente selon que l’une ou l’autre des molécules s’y fixe, explique l’Inserm. La réponse de l’organisme va donc être différente.
Cette découverte pourrait permettre de développer des molécules conservant les effets bénéfiques de la morphine sans pour autant induire d’effets secondaires, explique Sébastien Granier, chercheur à l’Inserm et principal auteur de l’étude.
CNRS
Nature
|
|
|
|
|
|
|
|
Les enfants sont plus sensibles aux effets de la pollution de l'air que les adultes. La pollution de l'air intérieur peut entraîner chez les enfants des problèmes de santé à court et à long terme tels que la congestion nasale, des irritations de la peau et des yeux, des réactions allergiques, de l'asthme, des maux de tête, de la fatigue, des vertiges ou encore des nausées. Dans les pays industrialisés, les enfants passent environ 80 % de leur temps à l'intérieur, une grande partie à l'école. Bien que des données américaines soulignent une pollution de l'air intérieur accrue dans les écoles, les relations entre cette qualité de l'air intérieur des écoles, la santé allergique et respiratoire des enfants scolarisés n'ont été que peu explorées. C'est pourquoi l'équipe EPAR d'Isabella Annesi-Maesano, directrice de recherche Inserm, a mené une étude dans six villes de France (Bordeaux, Clermont-Ferrand, Créteil, Marseille, Strasbourg et Reims) sur un large échantillon de 401 classes dans 108 écoles primaires. L'objectif de l'étude consistait à évaluer l'exposition de 6590 enfants concernés, garçons et filles âgé(e)s de 10 ans en moyenne, aux principaux polluants atmosphériques des classes et à analyser le lien avec l'asthme et les rhinites développés par les enfants scolarisés dans ces classes.
L'étude montre que 30 % des enfants sont exposés à des niveaux de polluants de l'air intérieur des classes supérieures aux valeurs guides de l'OMS et de l'ANSES1, soit en moyenne 3 enfants sur 10, bien qu'ils n'y soient pas exposés de la même manière. "L'intérêt de notre étude est de disposer de données sur un nombre important d'enfants répartis sur l'ensemble des régions de France métropolitaine", explique Isabella Annesi-Maesano.
Les chercheurs ont analysé pendant une année scolaire les concentrations de différents polluants atmosphériques : les particules fines de diamètre inférieur à 2,5 micromètre (PM2.5), le dioxyde d'azote (NO2) et 3 aldéhydes (formaldéhyde, acétaldéhyde et acroléine). Les particules fines et le dioxyde d'azote (NO2) proviennent essentiellement de la combustion automobile et peuvent rentrer par transfert (en ouvrant les fenêtres) à l’intérieur des locaux. Les aldéhydes sont des polluants intérieurs issus de nombreuses sources : les produits de combustion (cigarette, bougies, encens, cheminée, cuisinières à gaz), de construction et de décoration (bois, parquets stratifiés, des colles de moquettes, des papiers peints, mais également des vernis, des mousses isolantes), d'entretien (détergents, désinfectants, lingettes) et de traitement (insecticides)...
En parallèle, l'équipe de recherche a étudié les signes cliniques des enfants grâce aux données recueillies lors d'une visite médicale comportant aussi un test cutané aux 11 allergènes les plus communs (acariens, chat, pollens…) et un test d’exercice permettant de détecter l'asthme à l’effort. Ces données ont été complétées par un questionnaire rempli par les parents. "L'exposition à des concentrations élevées de particules et composés organiques volatils est associée à une augmentation de la prévalence des signes cliniques de l'asthme et des rhinites chez les enfants scolarisés. Les enfants sujets aux allergies semblent les plus à risque", révèle la chercheuse.
En détails, les résultats montrent que les rhinites (en particulier les rhino conjonctivites) sont associées de manière significative à des taux forts de formaldéhydes dans les classes et qu'une augmentation de la prévalence de l'asthme est observée dans les classes avec des taux élevés de particules fines PM2.5, de formaldéhyde, d'acroléine. La relation entre la mauvaise qualité de l'air et l'asthme concerne le plus souvent l'asthme de type allergique défini par le test cutané. "La mauvaise qualité de l'air intérieur pourrait à terme détériorer la santé allergique et respiratoire des enfants qui passent en moyenne 8h par jour à l'école. Il est donc important de maintenir une bonne qualité de l'air en classe. Cela permettrait de limiter les risques de développer les signes cliniques des rhinites et de l'asthme. Cette action doit être accompagnée par une surveillance stricte de l’exposition des enfants aux polluants à la maison et à l'extérieur " conclut l'équipe de recherche.
Inserm
|
|
|
|
|
|
|
|
Depuis des décennies, les spécialistes de la médecine cardiovasculaire sont à la recherche d’une méthode fiable capable de prédire l’imminence d’une attaque cardiaque. C’est peut être enfin chose faite. Dans une étude qui vient d’être publiée dans la revue Science Translational Medicine, des chercheurs américains ont découvert qu’une simple prise de sang pourrait permettre de déterminer si un patient est sur le point de faire une attaque dans l’heure ou dans la semaine à venir.
D’après les données fournies par le Haut Comité de santé publique, les maladies cardiovasculaires sont la principale cause de mortalité en France. Chaque année, 180 000 français succombent des suites d’une attaque cardiaque. Si les facteurs de risques sont bien connus, tabagisme, obésité et cholestérol, et si les médecins savent détecter les artères « bouchées » à l’origine des problèmes, aucun moyen fiable ne permet de prédire l’imminence d’une crise cardiaque.
C’est en étudiant le sang de 50 personnes ayant subi un accident cardiaque, que Raghava Gollapudi et ses collègues du Scripps Translational Science Institute (STSI) ont découvert que certaines cellules endothéliales, qui tapissent les parois du cœur et des vaisseaux, se déforment après un infarctus et deviennent anormalement grosses. Pour l’instant, ces résultats ne permettent aux médecins que de confirmer qu’un patient fait un infarctus au moment ou celui-ci se produit. Les chercheurs estiment que les déformations cellulaires observées commencent bien avant que la crise intervienne et ceci certainement des heures voire des jours auparavant. Ainsi, fort de ces premières conclusions, les chercheurs estiment qu’il est possible de mettre en place un test prédictif basé sur une analyse spécifique du sang. Ce dernier pourrait être commercialisé dans les deux prochaines années.
Information Hospitalière
|
|
|
|
|
|
|
|
Le programme national de dépistage du cancer du sein mis en place aux Pays-Bas depuis 1989 a permis de faire baisser le taux de mortalité des patientes atteintes de cette maladie, qui augmentait jusqu'alors, selon une étude néerlandaise. "Comparé à la période 1986-1988, avant la mise en place de ce programme de dépistage, le taux de mortalité pour les femmes entre 55 et 79 ans atteintes d'un cancer du sein a chuté de 31 % en 2009", a expliqué Jacques Fracheboud, chercheur du centre médical de l'Université Erasme de Rotterdam. L'étude vient d'être publiée à Vienne au cours du 8e Congrès européen sur le cancer du sein.
"On a réussi à identifier une tendance sur les données annuelles de décès de personnes atteintes d'un cancer du sein : avant le début du programme de dépistage, la mortalité augmentait de 0,3 % par an, après, elle a baissé chaque année de 1,7 %", a poursuivi le chercheur, cité dans l'étude. Entre 1990 et 2009, 3,6 millions de Néerlandaises âgées de 50 à 75 ans ont été invitées à réaliser un test de dépistage. La participation à ce programme est passée de 73,5 % en 1990 à 81,5 % en 2009. "Les résultats démontrent que le programme des 20 dernières années aux Pays-Bas a abouti à une baisse du taux de mortalité du cancer du sein", a précisé Jacques Fracheboud.
En 2009, les coûts du programme se sont élevés à 51,7 millions d'euros, soit 56,65 euros par test. Par rapport à 1996, le coût d'un dépistage a baissé de 3,50 euros. "Notre étude montre enfin la très bonne qualité et l'amélioration du programme. Il bénéficie d'un large consentement auprès des femmes âgées de 50 à 75 ans, et les coûts restent acceptables", a conclu le chercheur.
France 24
|
|
|
|
|
|
|
|
Pour bouger, les êtres vivants ont besoin de muscles et plus particulièrement des muscles squelettiques qui sont sous le contrôle du système nerveux. Ces derniers sont constitués de fibres musculaires cylindriques avec une multitude de noyaux périphériques. Le mécanisme par lequel les noyaux se positionnent en périphérie dans les fibres musculaires est encore mal connu. Une équipe de chercheurs franco-américains a essayé de mieux connaitre les raisons d’une telle disposition. L’équipe d’Edgar Gomes et ses collaborateurs a découvert le mécanisme impliqué dans le positionnement des noyaux dans les fibres musculaires. Les chercheurs ont identifié, chez la drosophile et la souris, deux protéines impliquées dans le positionnement des noyaux : la protéine Kif5b, appartenant à la famille des kinésines (moteurs moléculaires), et la protéine MAP7, qui permet le mouvement de différentes organelles dans la cellule.
Ils sont parvenus à ce résultat en mutant les gènes codants pour les protéines MAP7 et Kif5b de la drosophile et en étudiant le développement de l’embryon. Ils observent dans ce cas que les noyaux ne s'alignent pas correctement dans les fibres musculaires. "La présence de MAP7 est exigée pour le positionnement des noyaux dans les fibres musculaires chez la drosophile et chez les mammifères" précise Edgar Gomes, chargé de recherche Inserm. L'équipe de chercheurs est parvenue à décrire le mécanisme du positionnement des noyaux dans les fibres impliquant la protéine MAP7 et son interaction avec le moteur moléculaire : la kinésine Kif5b. Ils ont montré qu’une mutation de ces protéines n’affectait pas l’élongation du muscle ni même l’attachement au squelette mais bien seulement la position des noyaux.
L’équipe d’Edgar Gomes, en faisant interagir les deux protéines ensemble, suggère que MAP7 se lie à Kif5b pour favoriser le positionnement des noyaux. "Par ailleurs, ces protéines agissent génétiquement et physiquement ensemble, et leur lien physique est nécessaire pour le positionnement correct des noyaux. Nos résultats montrent que celui-ci permet le bon fonctionnement du muscle" souligne Edgar Gomes. Les maladies musculaires entraînant une faiblesse au niveau des fibres peuvent être associées à un défaut d’alignement des noyaux cellulaires. L’équipe d’Edgar Gomes a montré qu’en replaçant correctement les noyaux, le muscle redevient fonctionnel. "Nous suggérons qu’en corrigeant les défauts de positionnement des noyaux musculaires chez des patients atteints de myopathies, les malades pourraient voir leur fonction musculaire s’améliorer" conclut Edgar Gomes.
Inserm
|
|
|
|
|
|
|
|
Face à la résistance de plus en plus forte des bactéries aux médicaments, les chercheurs explorent d’autres solutions. L’une d’entre elles consiste à exploiter les bactériophages, des virus qui infestent les bactéries mais pas les cellules humaines. Une piste prometteuse...
L’Organisation mondiale de la santé (OMS) semble très inquiète. La résistance aux médicaments devient croissante, et la nécessité de proposer des nouvelles solutions thérapeutiques de plus en plus urgente. Et si les antibiotiques étaient remplacés par des virus ? L’idée ne date pas d'hier. En 1915, des chercheurs avaient découvert la présence de tueurs de bactéries, qu’on a appelé bactériophages. Ces virus ont alors été étudiés dans le but de lutter contre certaines maladies. Des difficultés dans la compréhension de leur mode d’action et l’avènement des antibiotiques ont eu raison d’eux. On s’en est un peu désintéressé en ce qui concerne la santé humaine.
Mais la roue a peut-être tourné. Les antibiotiques actuellement sur le marché commencent à montrer leurs limites, et ces virus ubiquistes (que l’on trouve dans tous les environnements) se présentent comme des candidats potentiellement intéressants. C’est du moins l’idée qu’a défendue David Harper, scientifique dans la firme britannique AmpliPhi Bioscience, lors de la conférence de printemps de la Société pour la microbiologie générale, qui se tenait à Dublin.
- Des thérapies à base de bactériophages déjà efficaces
Lors de son intervention, il a rappelé que chaque bactériophage est très spécifique à un certain type de bactéries. De plus, il lui faut absolument le bon hôte pour se multiplier et entamer son cycle lytique, celui qui aboutit à la mort de l’unicellulaire. Cependant, plus la quantité de proies est importante, plus la croissance virale est rapide. En conséquence, la mortalité des bactéries grimpe aussi en flèche.
Les bactériophages se posent donc en bon candidats pour lutter contre certaines maladies d’origine bactérienne, notamment des infections chroniques au niveau des oreilles, des poumons, ou consécutives à une blessure. Dans ces différents cas, David Harper précise qu’une petite dose de virus – il parle d’un nanogramme – appliquée sur le lieu de l’infection avec un spray ou une crème pourrait bien suffire à combattre et éliminer les bactéries pathogènes là où la médecine actuelle commence à connaître des difficultés.
Pour l’heure, des essais cliniques sont en cours. En 2005, une première phase avait montré l’absence de danger pour la santé humaine. En 2009, l’efficacité de la thérapie a pu être attestée. Désormais, David Harper et son équipe se concentrent sur les pathologies contre lesquelles les traitements antibactériens ne suffisent plus, de manière à éviter que nous nous trouvions dépourvus quand la super-résistance systématique sera venue...
Futura-Sciences
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|