|
|
|
|
|
NUMERO 615 |
|
|
|
|
|
|
|
Edition du 15 Septembre 2011
|
|
|
|
|
Edito
Bactéries résistantes : un défi scientifique mondial
Depuis quelques années, l'apparition et le développement de bactéries résistantes aux antibiotiques est devenu un défi médical mondial. Ce phénomène résulte largement d'une utilisation excessive à grande échelle d'antibiotiques. Or, il existe très peu d'alternatives pour le traitement des micro-organismes multi-résistants aux antibiotiques et aucune nouvelle famille d'antibiotiques n'est attendue avant au moins 10 ans.
Ces infections bactériennes graves et parfois mortelles touchent à présent la plupart des pays développés. Ce phénomène de résistance inquiète médecins et scientifiques et début août, des scientifiques de l'INRA (Institut national de la recherche agronomique), de l'INVS et de l'Institut Pasteur ont signalé la brusque apparition d'une salmonelle (bactérie représentant "une des premières causes d'infections alimentaires chez l'homme") qui résiste à presque tous les antibiotiques. Il semble que le foyer d'origine de cette nouvelle menace bactérienne se situe en Egypte et résulte directement de l'utilisation massive d'antibiotiques dans l'élevage de volailles.
La propagation de cette bactérie devient préoccupante : en France, le nombre de cas est passé de moins de 500 pour la période 2002-2008 à 270 cas pour la période 2009-2010.
Il y a quelques semaines, c'est une autre bactérie, E. Coli, qui a provoqué 76 décès en Europe du fait de sa virulence et de son extrême résistance aux antibiotiques. Ce phénomène de résistance accru s'étend à présent à d'autres colibacilles, un type de bactéries présent en grande quantité dans les tubes digestifs des hommes et des animaux.
Selon les dernières estimations scientifiques, ces bactéries résistantes seraient responsables d'au moins 25 000 morts par an dans l'Union européenne ! Face à cette situation alarmante, la quasi totalité des scientifiques travaillant sur cette question met en cause un mauvais usage et une surconsommation des antibiotiques. Certains chercheurs soulignent que, chez l'homme, la moitié des antibiotiques sont prescrits sans justification médicale, pour des affections maladies virales notamment pour lesquelles ces traitements sont totalement inutiles. Lorsqu'ils ne sont pas utilisés à mauvais escient, les antibiotiques peuvent également être administrés à un dosage insuffisant pour éliminer l'ensemble de la population bactérienne, laissant se développer les bactéries les plus résistantes.
Notre pays n'échappe pas à cette mauvaise utilisation des antibiotiques : l'Agence française de sécurité sanitaire a récemment rappelé que la France se situait nettement au-dessus de la moyenne européenne dans ce domaine, même si notre consommation globale d'antibiotiques a diminué de 16 % entre 2001 et 2011.
Mais ce phénomène ne concerne pas seulement les humains, il touche aussi les animaux : pendant de longues années, l'élevage a utilisé les antibiotiques de manière massive et inconsidéré jusqu'à ce que des mesures restrictives soient enfin prises il y a quelques années. La Suède est le premier pays à avoir, en 1986, interdit l'utilisation des additifs antibiotiques en alimentation animale et, grâce à cette mesure, les cas de résistance bactérienne ont sensiblement diminué dans ce pays. Mais ces pratiques restent malheureusement en vigueur dans d'autres pays comme les Etats-Unis.
Il faut également souligner l'insuffisance de recherche et d'innovation dans ce domaine pourtant capital : si les bactéries sont de plus en plus résistantes, c'est qu'elles ont le temps de s'adapter à des molécules qui n'évoluent pas assez vite.
Face à ce grave défi de santé publique, des solutions existent mais elles supposent trois conditions : une prise de conscience des populations concernées, une réorientation des stratégies de recherche médicale et une véritable volonté politique. Dans la revue Nature, le président du département de médecine de l'université de New York vient de proposer par exemple de réduire très sensiblement l'usage des antibiotiques pour les enfants et les femmes enceintes. On sait en effet, comme le montrent les exemples canadiens ou suédois, que la diminution de la consommation d'antibiotiques et l'optimisation de leur usage diminue de manière considérable la capacité de résistance des bactéries.
Dans le domaine de la pharmacologie, il faut rappeler que, depuis dix ans, 25 molécules ont cessé d’être commercialisées et seulement dix nouvelles ont fait leur apparition. Reste qu'à long terme, les antibiotiques seront toujours rattrapés par la capacité infinie d'adaptation de ces organismes vivants. C'est pourquoi, parallèlement à la recherche de nouvelles familles d'antibiotiques, il faut également développer d'autres approches scientifiques comme la vaccination et les virus bactériophages qui offrent un immense potentiel encore sous-exploité, dans la lutte éternelle contre les bactéries.
Le développement de ces nouvelles voies d'action est d'autant plus nécessaire que l'utilisation massive des antibiotiques n'est pas sans conséquences sur l'affaiblissement général de notre système immunitaire et sur l'augmentation de certaines pathologies, comme l'obésité, le diabète de type 1, les inflammations intestinales, certaines allergies et l'asthme. A cet égard, une étude américaine qui vient d'être publiée dans la revue "Nature" est révélatrice.
Elle montre que l'absence de la bactérie Helicobacter pylori, qui a largement disparu de nos estomacs, perturbe la régulation de deux hormones produites dans l'estomac, et serait liée à l'augmentation des cancers de l'œsophage, de l'asthme et des allergies. Cette étude recommande donc d'utiliser des antibiotiques à spectre plus étroit, moins nocifs pour les "bonnes"bactéries" et de favoriser la consommation des produits "probiotiques", qui favorisent un bon équilibre bactérien dans notre organisme.
Parmi les nouvelles voies de recherches prometteuses, celle des virus bactériophages semble particulièrement intéressante. Ces virus ont été identifiés il y presque un siècle, en 1915, par le chercheur britannique, Frederick W. Twort et en 1917, le canadien Félix d'Herelle a mis en évidence le potentiel des phages dans le traitement des infections bactériennes chez l'humain. En 1933, il a fondé en Géorgie un institut de recherche qui est devenu une référence mondiale en matière de phages et traite de nombreuses infections ayant résisté aux antibiotiques les plus puissants.
En 2006, aux États-Unis, des virus bactériophages ont été employés avec succès comme conservateur alimentaire pour lutter contre la listériose. Ce type de virus constitue également un outil irremplaçable de recherche et un vecteur très efficace permettant d'introduire de l’ADN dans des bactéries.
Plus récemment, des chercheurs américains dirigés par le Professeur V. Fischetti ont réussi à protéger des souris de la colonisation par le streptocoque A ou à éliminer une infection en utilisant une enzyme produite par le bactériophage C1. Cet enzyme présente la remarquable propriété d'avoir une action très toxique et spécifique sur certaines bactéries dangereuses pour l'homme, sans perturber la microflore normale composée de micro-organismes utiles.
On le voit, la lutte jamais achevée contre les bactéries est à un tournant de son histoire et doit se diversifier pour pouvoir continuer à progresser. Quatre axes devront être développés : tout d'abord il faut aller chercher dans la nature de nouvelles familles d'antibiotiques capables de neutraliser les bactéries les plus résistantes. Ces antibiotiques existent à l'état naturel sur la peau de certaines grenouilles tropicales et les chercheurs travaillent depuis plus de 20 ans à l'élaboration d'une nouvelle classe d'antibiotiques issue d’une nouvelle famille de peptides aux propriétés remarquables, les magainines.
Ces peptides possèdent la capacité de faire éclater la membrane d’une multitude de bactéries, y compris celles résistant aux antibiotiques traditionnels. Soulignons au passage que ces antibiotiques naturels présents chez de nombreux batraciens tropicaux et encore peu exploités sont une raison supplémentaire de tout mettre en œuvre pour préserver à tout prix les forêts tropicales qui constituent d'immenses réservoirs de biodiversité dont nous aurons absolument besoin demain pour concevoir les médicaments du futur.
Le deuxième axe concerne les virus bactériophages qui ont d'immenses potentialités thérapeutiques mais qui sont encore mal connus et doivent faire l'objet de recherches accrues.
Il faut également poursuivre les recherches visant à la mise au point de nouveaux vaccins et à l'amélioration des vaccins existants car, comme nous l'avons souvent souligné dans notre lettre, la vaccination à grande échelle reste un outil irremplaçable de prévention et de lutte contre les grandes maladies infectieuses. Dans ce domaine, les avancées se poursuivent et l'utilisation à large échelle de nouveaux vaccins contre le méningocoque A et le pneumocoque en Afrique devrait permettre à terme de sauver plusieurs centaines de milliers de vie par an dans le monde.
Mais, dernier point, la lutte contre les bactéries passera également par un changement profond des comportements et habitudes, tant chez les malades que dans le corps médical. Il est essentiel que nous apprenions à utiliser de manière beaucoup plus adaptée et personnalisée, comme le montrent de récentes études, la panoplie d'antibiotiques dont nous disposons si nous voulons voir diminuer sensiblement et durablement ces phénomènes très préoccupants de multi résistances bactériennes.
Depuis des millénaires, l'homme a appris à cohabiter avec les bactéries qui étaient là bien avant lui et sont, pour la plupart, indispensables à sa survie et sa santé. En nous appuyant sur notre connaissance plus vaste de la complexité du vivant et de l'interdépendance de toutes les espèces qui la composent, nous devons poursuivre notre combat inlassable contre les bactéries pathogènes, non de manière exclusivement frontale et générale, mais en combinant une multitude de nouveaux outils chimiques, biologiques et peut-être demain physiques (nanovecteurs) pour pouvoir combattre de manière sélective et intelligente, quand cela est nécessaire, ces prodiges d'adaptation naturelle qui, depuis plus de trois milliards d'années, ont façonné notre Terre et joué un rôle décisif dans l'apparition de la vie et l'évolution biologique jusqu'à l'apparition de l'homme.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
La suppression des données d'un disque dur pourrait conduire, dans des conditions bien particulières, à un refroidissement du système. Telle est la conclusion d'une étude réalisée conjointement par des physiciens de l'Université d'Oxford, de l'Université nationale de Singapour et de l'ETH Zürich (Institut fédéral de technologie de Zürich), et parue dans le journal Nature au mois de juin 2011. L'étude a pour titre : "The thermodynamic meaning of negative entropy" (La signification thermodynamique de l'entropie négative).
La chaleur d'un ordinateur générée par les calculs informatiques est non seulement un obstacle à la miniaturisation des circuits mais également un aspect fondamental de la relation entre théorie de l'information et thermodynamique, que l'on appelle entropie. Le travail de l'équipe de chercheurs a été de démontrer que lors de la suppression d'information, l'entropie du système, et donc sa capacité à produire de la chaleur ou à se refroidir, était conditionnée par l'information quantique qu'un observateur possède sur ce système.
Cette étude vient remettre en cause les principes de la thermodynamique classique appliqués aux ordinateurs. En physique, selon le principe de Landauer, la suppression de données stockées sur un système possède un coût de travail inhérent et de ce fait dissipe de la chaleur. Cette théorie suppose que l'information sur le système à effacer est classique, et ne s'étend pas aux cas où un observateur peut avoir des informations quantiques sur ledit système. L'étude parue dans Nature démontre que le principe de Landauer ne s'étend pas au domaine de la physique quantique où il peut y avoir suppression de données sans dissipation de chaleur, voire même refroidissement.
Les résultats de l'étude, qui demeurent pour l'instant théoriques, permettent d'imaginer des systèmes (ordinateurs ou serveurs de données) où la suppression d'information conduirait à un refroidissement de l'environnement. La condition étant que l'observateur ait suffisamment d'information sur les données à effacer. En d'autres termes que la suppression d'information (bits de données) du système se fasse sans perte d'information pour l'observateur.
L'équipe s'est inspirée des idées de la théorie de l'information et de la thermodynamique. Dans la théorie de l'information, l'entropie est une mesure de la densité de l'information qui décrit la densité d'information que pourrait prendre un ensemble de données lors d'une compression optimale. Pour la thermodynamique, l'entropie est reliée à un désordre des systèmes, par exemple l'arrangement des molécules dans un gaz. L'ajout de l'entropie à un système équivaut habituellement à ajouter de l'énergie en tant que chaleur. Le travail de recherche s'est appuyé également sur la théorie de l'information quantique, qui est un développement de la théorie de l'information de Claude Shannon, et qui exploite les propriétés de la mécanique quantique, notamment le principe de superposition ou encore l'intrication.
Pour Renato Renner, un des auteurs de l'article : "l'étude a démontré que dans les deux cas, en théorie de l'information et en thermodynamique, le terme entropie décrit en fait la même chose, et ce même dans le régime de la mécanique quantique. Notre équipe a montré que pour les deux domaines, l'entropie est considérée comme une marque de manque de connaissances".
Le résultat de cette étude, qui lie théorie de l'information, thermodynamique et physique quantique, apporte de nouvelles connaissances théoriques pour la construction d'ordinateurs quantiques, potentiellement plus rapides et moins coûteux en énergie. Mais elle entrouvre également la voie à d'autres champs d'applications, notamment dans le domaine de la thermodynamique.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Comme les empreintes digitales, les traces de pas renseignent sur la démarche et l’identité des individus avec une efficacité permettant d’envisager des applications industrielles.
Chaque individu a un style de marche unique et les humains comme les ordinateurs peuvent reconnaître sans trop d’efforts les différents modèles de démarche. Il n'est donc pas surprenant que la dynamique des pressions du pied, qui reflète indirectement les accélérations de toutes les parties du corps, soit également unique. De précédentes études ont déjà prouvé que l’analyse de la variation des pressions du pied, la pédobarographie, permet d’identifier les individus avec un succès dans environ 90 % des cas. Le petit nombre d’individus impliqués dans ces études ne permettait cependant pas de valider cette méthode.
Dans le Journal of the Royal Society Interface, des chercheurs de l’université de Shinsu ont mené des tests sur plus de 100 personnes et ont montré que le score de reconnaissance pouvait atteindre 98 %. Ils ont utilisé un logiciel de traitement d’image en 3D permettant d’extraire les caractéristiques des pressions dynamiques du pied. Ils ont notamment analysé l’impact du talon, le glissement de l’avant-pied et la pression des orteils sur le sol.
Dans leur article, les chercheurs estiment que leur protocole pourrait servir dans les secteurs ou des systèmes automatisés de reconnaissance des personnes sont nécessaires, notamment la sécurité. Néanmoins, à l’inverse des empreintes digitales qui sont difficilement falsifiables, la démarche peut être bien plus facilement modifiée. La pédobarographie ne pourra fonctionner que dans les situations où les individus veulent être reconnus, pour passer un contrôle de sécurité à l’embarquement par exemple.
Sciences et Avenir
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Lorsque, dans une entreprise, un appareil ne fonctionne plus, les techniciens doivent parfois jongler entre une conversation téléphonique avec le fabricant, et les manuels d’utilisation, tout en restant penchés au-dessus de la machine défaillante. Pour remédier à ce problème et faciliter la réparation, les chercheurs de l’institut FKIE du Fraunhofer ont mis au point une solution qui s’en remet à la réalité augmentée pour guider une personne à distance. En fait, une caméra - qui se fixe à l'ordinateur portable de l'utilisateur et qui est reliée à un logiciel de traitement de l'image - filme l'appareil défaillant. Le réparateur reçoit cela, et peut alors suivre les mouvements de la personne sur place, mais aussi superposer au cliché des images et des indications que l'utilisateur pourra visionner.
Le logiciel peut même être utilisé comme un chat où le réparateur peut indiquer au technicien "retirer cette vis" par exemple. La réalité augmentée est alors utilisée pour indiquer de quelle vis il s’agit. A noter que le système calcule la position de la caméra et celle de l'objet qui ne fonctionne plus afin de permettre aux personnes éloignées d'avoir la même perspective que celles sur les lieux de la réparation. Pour que le logiciel identifie la machine et ses composants, les scientifiques passent par des codes à barre 2D. "Nous ne transmettons pas de données liées à la localisation", explique ainsi Thomas Alexander, directeur de l’équipe de recherche.
Avant d’ajouter que "pour le moment, cette technologie est possible au moyen des codes à barres 2D disposés sur différentes parties de la machine". Ainsi, lorsque le technicien prend une image d’une machine défectueuse, le logiciel sur l’ordinateur portable n’a qu’à lire les marquages et les liens fournis par les codes à barre. Il a ainsi accès au code d’identification de la machine, analysé par la base de données qui identifie les différents éléments de la machine. Cela permet aussi au système de fonctionner sans nécessiter de connexion haut-débit. Cela afin d'autoriser ce type de réparations dans des endroits éloignés ou dans des zones rurales.
L'Atelier
|
|
|
|
|
|
|
|
Les robots vont-ils enfin se doter d'un sens tactile digne de ce nom? Peut-être, si l'on en croit les chercheurs du Centre de cognition pour systèmes techniques de l'Université de Munich qui ont développé des cellules tactiles pour rendre les machines tactiles. Hexagones de cinq centimètres carrés, ces circuits intégrés contiennent quatre capteurs infrarouges qui détectent toute présence à moins d’un centimètre, six capteurs de température et un accéléromètre.
Les scientifiques travaillent désormais à l’ajout d’un capteur de pression. Interconnectés en nid d’abeille, les hexagones envoient toutes les informations recueillies à une intelligence centrale. Chacun sert également de hub pour ses voisins, le chemin emprunté par les données peut changer en cas de défaillance d’une des cellules. Si elles renseignent le robot sur son environnement, ses remontées de données l’informent sur ses propres mouvements. Il « prend conscience » de son corps, membre par membre.
Les essais réalisés pour le moment, sur des petites surfaces de robots, ont montré des machines réagissant au souffle. Le but de l’équipe de chercheurs est désormais de réaliser une carapace complète. Les débouchés se trouvent surtout dans les robots d’assistance, dont l’émergence est tant annoncée, car ils devront se déplacer dans des environnements très changeants.
IEEE
|
|
|
|
|
|
|
|
Le premier et encore unique robot humanoïde européen s’appelle NAO, et il est entièrement conçu et fabriqué à Paris, par une start-up française créée en 2005, Aldebaran Robotics. Le responsable de la communication Bastien Parent nous a ouvert les portes de leurs locaux du 14e arrondissement, qui regroupent l’ensemble de la chaîne de création du robot NAO, de sa programmation informatique à l’assemblage des pièces (il en compte autant qu’une voiture). Voyage initiatique dans l’univers passionnant de la robotique…
NAO était de nouveau présent à la ROBOCUP 2011 qui s’est déroulée cette année en Turquie au début du mois de juillet, compétition qui rassemblent des équipes de robots footballeurs. NAO a été désigné par le Comité Organisateur de la RoboCup comme le successeur du chien robot Aibo de Sony, en tant que plate-forme officielle de la ligue standard. A cette occasion sont aussi attribués deux autres prix, dont celui du meilleur robot domestique où s’est aussi distingué notre robot national. Dans un domaine largement dominé par les Japonais, les français d’ALDEBARAN relèvent pas à pas le challenge incroyable de créer un robot humanoïde pour les particuliers. «NAO n’a pas un but utilitaire, il ne cherche pas à combler un déficit de main d’œuvre comme c’est le cas au Japon. NAO est un divertissement et un assistant qui facilite le quotidien.»
Le robot humanoïde français est une plate-forme sur laquelle ile est possible de programmer des applications, un peu comme sur un smartphone. Le NAO 3.3 que nous avons rencontré peut se déplacer en suivant un objet, répondre à des questions, danser, raconter des histoires, ou encore déambuler dans un mode dit de «vie autonome», tout ça en interaction avec son propriétaire qu’il sait reconnaître. En fonction des applications qui seront préprogrammées sur la version destinée aux particuliers, il pourra vous apprendre une langue étrangère, vous passer votre musique préférée, et grâce à sa connexion Wifi vous avertir de l’actualité, de la Bourse, lire vos emails… Pour les personnes âgées ou à mobilité réduite, NAO pourrait être d’une aide précieuse. Il serait capable de leur rappeler de prendre leurs médicaments et même de prévenir les secours s’il les voit à terre.
20 minutes
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les fumées noires, toxiques et nauséabondes, des véhicules Diesel ne seront bientôt plus qu'un mauvais souvenir. De gros progrès ont déjà été réalisés depuis une dizaine d'années avec la généralisation des moteurs à injection directe puis l'introduction, dans les pots d'échappement, de filtres à particules rendus obligatoires sur les véhicules Diesel neufs commercialisés depuis le 1er janvier 2010 (norme Euro 5).
Mais un cap décisif a été franchi avec la mise au point par le groupe chimique Rhodia, en partenariat avec PSA (Peugeot-Citroën), d'un nouvel additif carburant capable d'éliminer 99 % des particules émises par les moteurs Diesel. Ces résidus de combustion sont l'une des principales sources de pollution atmosphérique urbaine. Leur petite taille (entre 0,1 et 0,3 mm de diamètre) leur permet notamment de pénétrer profondément à l'intérieur des poumons, jusqu'aux alvéoles, où elles provoquent des pathologies respiratoires (asthme, bronchite chronique et probablement des cancers).
C'est donc tout naturellement que ce produit «vert», baptisé Eolys Powerflex, vient d'être primé par le jury du prix Pierre-Potier. Cette distinction, créée en 2006 par le ministre de l'Industrie de l'époque, François Loos, la Fédération française des sciences pour la chimie (FFC) et l'Union des industries chimiques (UIC), est destinée à récompenser «l'innovation en chimie en faveur du développement durable». En clair, des produits ou des procédés «plus sûrs, plus écologiques, mieux recyclés et faisant moins appel aux ressources fossiles (pétrole, charbon, minerais… )». Eolys Powerflex associe deux composés : un catalyseur oxydant à base de fer (matière première abondante et bon marché) qui régénère le filtre à particules en éliminant les dépôts de suie carbonées et un «détergent» destiné à éviter l'encrassement du moteur, notamment lorsque le gazole est mélangé à des biocarburants (esters méthyliques d'huile végétale).
«Un seul litre d'Eolys Powerflex stocké dans un petit réservoir dédié suffit pour couvrir 150.000 km», explique Virginie Harlé, chef de projet chez Rhodia qui précise que ce dispositif équipe déjà 1,5 million de véhicules Diesel vendus par PSA en Europe depuis janvier 2010. L'automobiliste ne s'occupe donc de rien : tous les 500 à 700 km, une dose infime d'additif est mélangée automatiquement au carburant en vue de nettoyer le filtre à particules. «L'opération ne durant que 5 minutes, le système est parfaitement adapté aux trajets urbains ou de courte durée», poursuit Mme Harlé. Et comme elle se déroule à basse température, le surcroît de consommation de gazole n'est que de 1 % contre 5 % avec le dispositif concurrent CSF (filtre catalysé).
Le Figaro
|
|
|
|
|
|
|
|
NEC et l'Université du Tohoku ont annoncé avoir développé la première mémoire adressable par contenu (CAM) ne nécessitant pas d'électricité pour enregistrer des données, ce qui ouvre une porte importante vers la suppression totale du gaspillage d'électricité de nombreux appareils.
De nombreux appareils actuels reçoivent, en étant simplement branchés au circuit électrique, un flux constant d'électricité pour conserver des données ou des paramétrages. L'électricité utilisée par cette activité est estimée à environ 6 % de l'électricité totale consommée dans les foyers. La mémoire développée par le professeur Ohno de l'Université de Tohoku et NEC est une mémoire adressable par contenu (c'est-à-dire que, contrairement aux mémoires de types RAM, son contenu n'est pas accessible par une adresse mais par une donnée). C'est une mémoire extrêmement rapide.
La non-volatilité (la capacité à ne pas perdre d'information sans apport d'électricité) est directement due au système physique d'enregistrement des informations. En effet, la mémoire utilise ce qu'on appelle la spintronique : les spins des électrons sont capables de se comporter comme des petits aimants et, selon leur orientation, de "stocker" des données. Ce type de mémoire pourrait être utilisé dans de nombreux appareils électroniques, notamment pour développer des appareils démarrant instantanément et ne consommant aucune électricité en veille. L'équipe de recherche espère mettre en pratique cette nouvelle mémoire en moins de cinq ans.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Jusqu'à présent, personne n'a été en mesure de capter l'énergie électromagnétique qui nous entoure. Tout cela pourrait bientôt devenir réalité grâce à une technologie qui la récupère et l'exploite. Les chercheurs de l'Institut de génie électrique et informatique du Georgia Tech ont utilisé des fréquences à bande large pour exploiter une variété de signaux et en capter l'énergie. Par ailleurs, ils se sont servis d'une imprimante à jet d'encre pour combiner sur un même support papier (ou un polymère flexible), plusieurs matériaux. L'équipe a imprimé non seulement des composants Radio-Fréquences (RF) et des circuits, mais également de nouveaux dispositifs de détection à base de nanomatériaux (ex. nanotubes de carbone). Le résultat ressemble à un "capteur sans fil auto-alimenté" qui peut être utilisé pour surveiller les produits chimiques, thermiques, biologiques, ainsi que les niveaux de vibrations.
Les périphériques de communication implantés tout autour de nous, émettent beaucoup d'énergie dans différentes gammes de fréquences. Des appareils dédiés dits "récupérateurs" sont capables, eux, de capter cette énergie et de la convertir en courant continu. Cette énergie est finalement stockée dans des condensateurs ou des batteries. Ces dispositifs qui sont basés sur des circuits souples peuvent exploiter aussi bien des fréquences radios de type FM que radars, dans une fourchette allant de 100 MHz à 15 GHz. Le groupe de recherche a commencé ses travaux dans les années 2006, où les circuits ne fonctionnaient qu'à des fréquences de 100 ou 200 MHz. "Nous pouvons maintenant imprimer des circuits qui sont capables de fonctionner jusqu'à 15 GHz - voire 60 GHz si nous imprimons sur un polymère", a déclaré Rushi Vyas, étudiant diplômé.
Des centaines de microwatts d'électricité ont déjà été générés rien qu'en utilisant des fréquences de télévision, ce qui reste suffisant pour faire fonctionner de petits appareils électroniques tels que des capteurs et des microprocesseurs. L'équipe du Georgia Tech veut maintenant combiner des super-condensateurs et des fréquences élevées avec sa technologie de balayage pour alimenter des appareils qui nécessitent 50 milliwatts de puissance. Dans cette approche, l'énergie s'accumule dans un super-condensateur avant d'être utilisée lorsque le niveau de puissance requis est atteint. Les chercheurs pensent que les capteurs souples auto-alimentés, sans fils, seront bientôt largement disponibles à un coût très faible. La prolifération de ces capteurs peu coûteux pourrait être utilisée dans des applications multiples (sécurité, économies d'énergie, intégrité des structures, stockage des aliments périssables, bio-surveillance médicale).
Enerzine
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Grand comme un autobus, le satellite UARS est hors de contrôle et s’apprête à entrer dans l’atmosphère. Quand ? Fin septembre ou début octobre, dit la Nasa. Où ? On ne sait pas. Amateurs de bolides, surveillez le ciel ! Pronostiqueurs de cataclysmes, remballez vos fantasmes…
En septembre 1991, les astronautes de la mission STS-48 (chérie des ufologues pour des images d’objets mystérieux) ouvraient la soute de la navette Discovery et libéraient le satellite UARS (Upper Atmosphere Research Satellite). Cet engin de près de 12 mètres de longueur pour 6 tonnes allait durant des années, jusqu’en 2005, étudier la stratosphère, sa chimie, ses vents et sa couche d’ozone, et mesurer plus précisément l’énergie reçue du Soleil et absorbée dans l’atmosphère.
En 2005, la Nasa met fin à sa mission (qui devait durer trois ans) et UARS reste sur son orbite basse (600 km), inclinée à 57° par rapport au plan équatorial. Sa chute est irrémédiable et les experts de la Nasa l’estiment pour la fin du mois de septembre ou le début d’octobre.
- Des nouvelles plus précises juste avant le crash
Le point d’entrée dans l’atmosphère et donc la zone concernée restent pour l’instant impossibles à estimer, explique la Nasa. La réserve de carburant est épuisée et il n’est pas possible d’effectuer une correction de trajectoire pour viser l'océan Pacifique, étendue la moins peuplée de la planète et cimetière habituel d'engins spatiaux en fin de mission. UARS tombera donc là où l’amèneront les lois de la gravité et les aléas des frottements sur l’atmosphère.
L’objet est surveillé de près par les observateurs de la base de l’US Air Force installée à Vandenberg, en Californie. À l’approche de l’échéance fatale (pour UARS), la Nasa promet des rapports réguliers sur la position du satellite puis sur les conditions de la pénétration dans l’atmosphère. L’engin devrait se déchirer en multiples morceaux et sans doute produire des bolides, c’est-à-dire des objets en chute libre se consumant et ionisant l’air, provoquant de jolies traînées colorées. Certains auront sans doute la chance de les observer...
Futura-Sciences
|
|
|
|
|
|
|
|
Des simulations numériques suggèrent que Pluton pourrait avoir un anneau de poussière.
Les anneaux planétaires les plus spectaculaires sont ceux de Saturne, mais Jupiter, Uranus et Neptune en possèdent aussi. Une équipe d'astronomes de l'Université de São Paulo, au Brésil, menée par Pryscilla Maria Pires dos Santos vient de montrer à l'aide de simulations numériques qu'il faut peut-être ajouter Pluton à cette liste.
Les chercheurs ont modélisé le devenir des poussières éjectées par deux des satellites de Pluton, Nix et Hydra, lorsqu'ils sont frappés par des micrométéorites provenant de la ceinture de Kuiper (la population de petits corps situés au-delà de l'orbite de Neptune). Ils ont supposé que le flux de ces impacteurs est le même que celui qui frappe Neptune, soit 10–16 kilogramme par mètre carré et par seconde. Normalement, la poussière devrait se dissiper totalement sous l'effet de la pression de radiation exercée par la lumière du Soleil. Les simulations numériques qui tiennent compte de ce dernier phénomène, mais aussi des effets gravitationnels de Nix, Hydra et Charon (le principal et plus proche satellite de la planète naine), ont cependant montré que la quantité de poussière engendrée compense celle dissipée. De cette façon, un anneau peut subsister autour de Pluton et de ses satellites.
Les astronomes ont calculé que pour un anneau de 57 000 kilomètres de rayon moyen et de 16 000 kilomètres de largeur situé entre les orbites de Nix et Hydra, 50 pour cent des poussières de un micromètre disparaîtraient en une année. Il resterait alors un anneau stable mais si ténu qu'il serait inobservable depuis la Terre. En effet, son épaisseur optique serait de 6 x 10–11, alors que celle de l'anneau principal d'Uranus est de 0,5 à 2,5 (plus l'épaisseur optique est faible, plus le milieu est transparent). Or le télescope spatial Hubble ne peut voir un anneau autour du système plutonien dont la profondeur optique est inférieure à 10–5.
Il faut noter que ces simulations ne tiennent pas compte des poussières éjectées de Pluton et Charon. Il a en effet été démontré en 2002 qu'elles forment probablement un nuage extrêmement transparent autour de ces deux objets. Par ailleurs, les simulations des chercheurs sont antérieures à la découverte d'un quatrième satellite de Pluton, S/2011 P1, repéré en juin 2011 entre Nix et Hydra. L'influence que pourrait avoir ce nouveau corps sur un anneau éventuel reste à évaluer.
Dans le cas où l'anneau existe bel et bien, le seul espoir de pouvoir l'étudier viendra de la sonde New Horizon, en route pour Pluton, qui emporte à son bord un compteur de poussière capable de détecter des particules de masse aussi faible que 10–12 gramme. Elle devrait arriver autour de Pluton en juillet 2015.
Pour La Science
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
UNA Toolbox combine plusieurs solutions de géospatialisation et d'analyse des flux afin de modéliser les différentes habitudes des habitants d'une ville. Le but : faciliter le lancement de programmes d'urbanisme.
Comment établir les meilleurs endroits pour construire des résidences, des bureaux, ou encourager la multiplication de commerces dans un espace urbain ? Pour aider les architectes, les pouvoirs publics et les urbanistes à mieux connaître les besoins des habitants, le MIT a mis au point un programme d'analyse des réseaux urbains, la UNA Toolbox. Le but ? Leur permettre de modéliser les mouvements spatiaux dans une ville, et leurs évolutions. Selon Andres Sevtsuk, le principal investigateur du projet, on pourra ainsi expliquer plus simplement : "sur quelle rue ou dans quel bâtiment on a le plus de chances de trouver un commerce de proximité, dans quelle zone se trouve le trafic à pieds ou en voiture le plus important et pourquoi la valeur du terrain varie d'un emplacement à un autre".
- Comprendre la complexité du maillage urbain
Cela en prenant en compte la géométrie globale des zones urbaines et des axes de transport, les distances mais également les immeubles dont on peut pondérer l'importance suivant différents critères : volume, population, influence sur les bâtiments environnants. Techniquement, le système combine des programmes de géospatialisation et d'analyse de l'environnement urbain. L'un d'eux, par exemple, mesure combien de bâtiments peuvent être atteints dans un rayon donné à partir d'un immeuble de départ. Un autre calcule l'accessibilité d'un immeuble suivant l'attractivité et la distance des constructions proches.
- Aider les pouvoirs publics et les architectes
Un troisième établit le nombre de passants dans une zone, quand un autre s'intéresse à l'écart métrique entre chaque bâtiment. Et enfin, un dernier établit le chemin le plus court entre deux points suivant le tracé des rues et des routes, puis compare cette donnée avec le temps qu'il faudrait pour parcourir la même distance à vol d'oiseau. Ces éléments devraient donc permettre, par exemple, de quantifier efficacement si un building occupe une position centrale et la facilité avec laquelle un habitant peut accéder à plusieurs endroits à partir d'un point de départ donné.
L'Atelier
|
|
|
|
|
|
|
|
Un nouveau produit de décontamination des eaux radioactives a été présenté par l'entreprise Kaneka et l'institut Kitasato lors d'une conférence de presse, le 15 juillet 2011. Très efficace et peu coûteux, ce dépolluant à base d'algues marines pourrait, d'après les chercheurs, être employé dans le cadre de la décontamination de l'eau radioactive présente sur le site de la central nucléaire de Fukushima au Japon.
Découverte par l'université de Tsukuba et l'entreprise Japan Biomass, Parachlorella sp. binos est une microalgue appartenant au genre parachlorella. Riche en nutriments, Binos est d'ores et déjà utilisée comme catalyseur de l'activité des micro-organismes dépolluant des déchets animaux et des boues.
Des études très récentes réalisées par l'université Toho à Tokyo et par l'université Yamanashi à Kofu, ont démontré la grande capacité de cette micro-algue à absorber et à piéger plus de 20 types d'éléments radioactifs. Une fois capturés, les radioéléments peuvent être aisément séparés de la phase aqueuse. D'après les résultats des expériences réalisées sur 1 litre d'eau radioactive comparable à celle contenue dans les réacteurs de Fukushima, 5 grammes de Binos déshydraté ont permis de décontaminer environ 40 % du césium et de l'iode ainsi que 80 % du strontium en moins de 10 minutes.
Selon les estimations, Binos serait 5 à 20 fois plus efficace que les zéolites (minéraux) actuellement utilisés à Fukushima. La structure des zéolites extrêmement dure et microporeuse permet en effet la capture de gaz, de métaux lourds et d'éléments radioactifs par liaison ionique. Dès le mois d'avril 2011, TEPCO a immergé dans l'océan 10 sacs de 100 kg de ce minéral afin notamment d'absorber la pollution radioactive du césium 137. L'opérateur continue à réaliser des prélèvements pour vérifier les valeurs surfaciques de captation des éléments radioactifs. Le procédé exploitant l'algue Binos serait moins coûteux et plus efficace que celui utilisant ce minéral. Afin de faciliter son utilisation, l'algue en poudre peut être compressée en billes de 3 mm de diamètre. TEPCO ainsi qu'une entreprise spécialisée dans la dépollution aurait d'ores et déjà débuté des tests sur les eaux radioctives contenues dans les réacteurs accidentés de Fukushima.
Bulletins Electroniques
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Selon une étude allemande, les chiens pourraient être capables de détecter les cancers. Alors qu'une hypothèse semblable avait déjà été avancée en 1989, des études plus approfondies l'avaient certifié par la suite concernant notamment les cancers de la peau, de la poitrine, de la vessie et des intestins. Quid du cancer du poumon ?
Les scientifiques à l'origine de cette étude ont souhaité prouver ce que beaucoup soupçonnaient déjà : les tumeurs cancéreuses du poumon seraient porteuses de particules chimiques odorantes détectables par les chiens, dont l'incroyable odorat a déjà fait ses preuves. Ils ont donc entraîné quatre chiens à utiliser leur flair pour détecter ces "odeurs de cancer".
Deux bergers allemands, un berger australien et un labrador ont tenté, pour la science, de repérer les poumons cancéreux dans un échantillon test de plus de 200 personnes. Trois groupes de patients ont été testés : 110 en bonne santé, 60 atteints d’un cancer des poumons et 50 atteints de bronchites chroniques. Ceux-ci ont tour à tour soufflé dans un tube contenant de la laine, laquelle absorbe les odeurs de façon optimale. Les animaux les ont ensuite reniflés, avant de s’asseoir devant les fioles qu'ils jugaient porteurs de la maladie.
Résultat stupéfiant, 71 % des repérages étaient corrects, montrant que les animaux n’étaient par exemple pas perturbés par la présence d’autres maladies du poumon, ni même de l'odeur du tabac ou les bronchites y étant liées. "Dans l’haleine des patients atteints d’un cancer du poumon, il semble y avoir différentes molécules que dans une haleine saine, et le sens de l’odorat aiguisé des chiens peut détecter cette différence à un stade précoce de la maladie", a déclaré le Dr Thorsten Walles, l’un des chercheurs et auteur du rapport du Schillerhoehe Hospital, pour la BBC.
RTL
|
|
|
|
|
|
|
|
La question du nombre d’espèces présentes sur notre planète a longtemps tourmenté les scientifiques. Nous n’en connaissons aujourd’hui qu’1,2 million. Des estimations sur leur nombre total ont été réalisées, mais elles varient entre 3 et 100 millions ! Grâce à une nouvelle approche, une équipe de chercheurs canadiens, américains et anglais vient d’émettre une nouvelle estimation : il existerait 8,7 millions d’espèces eucaryotes (c’est-à-dire qui ne comptent pas les bactéries).
Ils ont mis au point un modèle mathématique, qui permet de connaitre le nombre d’espèces à partir de la classification des êtres vivants. Ils l’ont appliqué sur des parties bien connues de la classification puis l’ont extrapôlé à l’ensemble de l’arbre du vivant. Voilà ce qu’ils obtiennent : il existerait 2,2 millions d’espèces marines et 6,5 millions d’espèces terrestres. Il y aurait 7,77 millions d’espèces d’animaux, 298 000 de végétaux et 611 000 de champignons.
Rapporté au nombre d’espèces déjà connu, cela signifie qu’il reste à découvrir 86 % des êtres vivants terrestres, et 91 % de ceux vivants dans les océans. D’après les scientifiques, les spécimens inconnus ne vivraient que dans des zones géographiques très restreintes ou peu accessibles, comme les fonds marins. Les chercheurs ont également estimé qu’il faudrait 1 200 ans et 303 000 taxonomistes pour répertorier l’ensemble de la biodiversité mondiale. Le problème est que selon le rythme des extinctions, certaines auront disparu de la planète avant même que nous ayons eu connaissance de leur existence.
PLOS
|
|
|
|
|
|
|
|
Plutôt rare, Le cancer anal touche en moyenne 1,5 femme sur 100 000, mais concerne le plus souvent les hommes séronégatifs ayant des relations homosexuelles (40 sur 100 000) et les homosexuels séropositifs (80 sur 100 000). D’après les dernières données épidémiologiques, son incidence a augmenté très régulièrement depuis une trentaine d’années. Chez la femme, dans plus de 75 % des cas, ce sont les papillomavirus humain (HPV) 16 et 18 qui sont à l’origine du développement de ces tumeurs. Ces derniers sont aussi responsables du développement des cancers du col de l’utérus.
En partant de ce constat, Aimée Kreimer et ses collègues du National Cancer Institute américain ont voulu vérifier si un des vaccins (Cervarix® des laboratoires GlaxoSmithKline) qui permet de limiter les risques de cancers cervicales pouvait aussi réduire l’incidence des tumeurs anales. Pour cela, les chercheurs ont recruté au Costa Rica 4 210 jeunes femmes âgées de 18 à 25 ans, dont seulement la moitié a été vaccinée. Quatre ans plus tard, ils ont constaté une réduction des risques des infections utérines de 76 %, et des infections anales de 62 % chez celle qui avait reçu une dose de Cervarix.
Information Hospitalière
|
|
|
|
|
|
|
|
Parviendra-t-on un jour à éviter la trachéotomie (incision chirurgicale pratiquée dans la trachée en vue de faciliter la respiration), souvent inéluctable après une ablation du larynx ? C'est, par des chemins différents, l'objectif poursuivi par plusieurs équipes. La greffe totale devrait rester exceptionnelle car inapplicable aux patients traités pour un cancer. D'ailleurs, seules deux tentatives ont été menées à ce jour. Autre technique testée en Italie : reconstituer le larynx à partir d'une côte du patient, modifiée pour lui donner la forme de l'organe et vascularisée par implantation dans l'avant-bras, puis mise en place en la reliant aux vaisseaux du cou.
En France, le Professeur Christian Debry, chirurgien ORL des Hôpitaux universitaires de Strasbourg, mise sur une autre voie : un larynx artificiel grâce auquel il espère, à terme, rendre inutile la trachéotomie. Dans les prochains mois, son équipe doit procéder à un premier essai sur une dizaine de patients. Près de 1200 personnes subissent chaque année une trachéotomie définitive dans notre pays où l'on recense 20.000 «trachéotomisés». Cette intervention consécutive à l'ablation du larynx en raison d'un cancer le plus souvent associé au tabac est presque toujours synonyme de mise à l'écart sociale et professionnelle pour le malade.
Organe complexe, le larynx remplit normalement trois fonctions : il permet de parler grâce aux cordes vocales qui modulent la voix, mais aussi de respirer et de s'alimenter sans «fausse route», grâce à la fermeture réflexe de la trachée lors du passage des aliments vers l'œsophage. Son ablation impose souvent la création d'une trachéotomie définitive pour permettre la respiration, l'alimentation continuant à se faire par la voie normale. «Notre objectif, indique le Professeur Debry, c'est d'éviter la trachéotomie définitive grâce à une reconstitution totale du larynx selon un procédé qui associe les techniques chirurgicales et l'utilisation de biomatériaux poreux. Implantée à l'emplacement du larynx, la prothèse permet - c'est le plus important et le plus difficile - une respiration et une déglutition synchronisées grâce à un double système de valves, ce qui rend possible la fermeture de la trachéotomie et permet donc de restaurer une voix, chuchotée dans un premier temps.»
Cette prothèse, sur laquelle le chirurgien et les chercheurs de l'unité 977 Biomatériaux et ingénierie tissulaire de l'Inserm travaillent depuis de longues années, est rigide comme le cartilage du larynx, afin d'éviter tout risque de lyse (digestion par l'organisme). Sa microstructure, en billes de titane de 200 à 600 microns, est conçue pour favoriser sa colonisation par les cellules musculaires et cartilagineuses qui vont reconstituer peu à peu les tissus. La prothèse comprend deux parties dont la pose se fera en deux temps. La partie biofonctionnelle, inamovible, sera posée par voie chirurgicale juste après l'ablation du larynx, avant le traitement par irradiation qui doit intervenir dans les deux mois. L'autre partie, fonctionnelle, sera posée par endoscopie quelques semaines plus tard et viendra se clipper sur la première. Elle devra être changée périodiquement. «Si la technique fonctionne, nous espérons qu'elle se substituera peu à peu à la trachéotomie», confie le Professeur Debry.
Le Figaro
|
|
|
|
|
|
|
|
Notre cerveau, réceptacle de notre opinion politique ? Il semblerait que la structure cérébrale des personnes qui se disent libérales (au sens anglo-saxon) ou conservatrices diffère selon l’opinion politique affichée, selon un billet de la chercheuse Andrea Kuszewski sur le blog Intersection de Discover Magazine. Elle y fait référence à deux études de 2007 ("Neurocognitive correlates of liberalism and conservatism") et 2011 (Political orientations are correlated with brain structure in young adults).
Kusewski rapporte que les chercheurs sont parvenus aux découverte suivante : les personnes se disant conservatrices ont un plus petit cortex cingulaire antérieur et des amygdales plus développées qui servent à contrôler les émotions dont les informations sont transmises entre les lobes du cerveau. Or le cingulaire permet de moduler sa réponse, peser le pour et le contre des conflits devant lesquels se situe le sujet; un petit cingulaire aurait pour conséquence que les personnes de droite aient davantage recours à des solutions traditionnelles, agissant par réflexe dans certains cas.
Ceci est par ailleurs lié à de plus larges amygdales les rendant plus sensibles aux sentiments de peur, crainte et dégoût. A contrario, les libéraux ont tendance à avoir un cortex cingulaire antérieur plus actif, leur permettant d’apporter des solutions alternatives aux problèmes auxquels ils pourraient être confrontés.
Andrea Kuszewski alerte néanmoins sur la méthodologie de ces recherches neuroscientifiques appliquées aux comportements politiques. Selon elle, il ne faut pas les généraliser à l’ensemble de la population mais les considérer comme une vue d’ensemble nous permettant de réfléchir à de nouveaux outils de communication entre les organisations aux sensibilités politiques différentes. Elle met également l’accent sur un groupe de personnes qui rassemblerait les deux caractéristiques principales affiliées aux libéraux et conservateurs.
Par ailleurs, Kuszewski souligne l’impact de l’héritage politique dans notre décision de rejoindre tel ou tel parti, en dépit des caractéristiques neuroscientifiques précédemment décrites. Un impact social qu’elle réaffirme dans sa réponse aux commentaires laissés à la fin de son article : «On peut être prédisposé à un mode de pensée, mais si nous ne parlons uniquement à ceux qui nous ressemblent ou refusons de comprendre comment les autres perçoivent les choses, on peut même être encore plus polarisé.»
L’orientation politique reste complexe à analyser et la science n’est pas encore en mesure de déterminer si c’est la structure du cerveau qui influence l’orientation politique ou l’inverse, au même titre que l’évolution de notre structure cérébrale et des opinions politiques qui changent avec le temps.
Slate
|
|
|
|
|
|
|
|
Les résultats d'une étude publiée dans la revue Personality and Social Psychology Bulletin par David Neal, professeur de psychologie à l'University of Southern California, montrent que le grignotage incontrôlé serait motivé par l'association entre un lieu et une habitude alimentaire.
Le chercheur américain et son équipe affirment avoir découvert le fond du problème du grignotage incontrôlé : d'après eux, tout est question d'association. «Lorsque l'on mange régulièrement un certain type de nourriture dans un certain environnement, le cerveau associe cette nourriture à l'environnement en question. Cela incite à manger tant que les signaux propres à l'environnement sont toujours présents», explique dans un communiqué David Neal.
Pour réaliser leur expérience, les scientifiques ont fourni des seaux de pop-corn à 98 personnes avant une séance de cinéma. Certains des participants ont reçu du pop-corn fraîchement préparé, d'autres du pop-corn vieux d'une semaine, décrit comme «froid, humide, spongieux». Les personnes qui avaient indiqué avoir pour habitude de manger du pop-corn au cinéma ont consommé des quantités équivalentes de popcorn, qu'il soit vieux ou fraîchement préparé.
La solution pour éviter de succomber à la tentation du grignotage intempestif, selon les chercheurs ? Employer la main non dominante -- droite pour les gauchers et inversement. Lors de l'expérience, les adeptes du grignotage ayant employé leur main non dominante pour puiser dans le seau de pop-corn en ont mangé moins que ceux qui employaient leur main dominante.
Il ne faut cependant pas sous-estimer le pouvoir de certains aliments : une expérience menée à Yale, examinant l'activité cérébrale de femmes à qui l'on présentait un milkshake au chocolat, a permis de montrer que la simple vue de l'objet de la tentation activait les zones du cerveau qui sont à l'oeuvre chez un cocaïnomane dès lors que celui-ci est confronté à sa drogue.
Cyberpresse
|
|
|
|
|
|
|
|
La relation potentielle entre café et cancer a suscité beaucoup d'intérêt et de questions depuis plusieurs décennies, en raison de la fréquence de sa consommation et du nombre élevé de ses constituants. Plus de 500 études épidémiologiques, réalisées pour la plupart en Amérique, en Europe et au Japon, ont été consacrées à l'étude du lien potentiel entre consommation de café et risque de développer divers cancers. Plusieurs articles récents ont réalisé des revues exhaustives sur le sujet. Toutes ces études montrent le rôle bénéfique du café en matière de prévention de certains cancers, sous la direction d'Astrid Nehlig de l’Inserm U666, Faculté de Médecine de Strasbourg.
Sur la base des connaissances actuelles, il apparaît que, pour la plupart des organes, il n'y a pas d'association entre une consommation modérée de café et une augmentation du risque de cancer. C'est le cas du cancer de l'œsophage, de l'estomac, du rein, de la prostate, de l'ovaire et du cancer du sein chez la femme ménopausée. Dans divers organes, les données des études suggèrent que la consommation de café pourrait être associée à une réduction du risque de développer un cancer. C'est le cas des cancers de la cavité orale et du pharynx, du foie, de l'endomètre, de la peau, des gliomes et du cancer colorectal. Un lien a pu être observé avec le cancer de la vessie. Toutefois, des facteurs de confusion, liés en particulier au tabac et à l'alcool posent des problèmes d'interprétation causale et des études complémentaires restent nécessaires.
Pour le cancer du foie, trois méta-analyses regroupant au total 15 études cas-témoins et 8 études de cohorte montrent une nette réduction du risque de développer ce cancer : de 38 à 59 % chez les consommateurs comparés aux non-consommateurs et une réduction de 43 % pour chaque augmentation de 2 tasses de café/jour. Deux études concernant la cirrhose et le cancer du foie montrent une réduction de 40 à 50 % de la mortalité liées à ces pathologies en cas de consommation de café. Pour le cancer colorectal, la majorité des 20 études cas-témoin et des 10 études de cohorte disponibles font état d'un risque réduit d'environ 12 % lié à la consommation de café. Enfin, pour le cancer de la prostate, une étude récente vient de faire état d'un risque réduit de 18 % pour tous les types de cancer de la prostate pour la consommation d'au moins 6 tasses de café/jour. La réduction de risque atteint même 60 % pour la forme létale du cancer de la prostate.
Senior Actu
|
|
|
|
|
|
|
|
L’entrée dans la psychose est souvent précédée par une phase prodromique, marquée par une dégradation progressive du fonctionnement social et/ou global, et par l’émergence de symptômes atténués d’ordre psychotique. Mais si les sujets présentant ces prodromes implicites de psychose ont certes un risque accru de développer cette affection, il est souvent impossible de prédire une évolution inéluctable sur la seule base des caractéristiques cliniques, et de distinguer ceux qui deviendront effectivement psychotiques après ces prolégomènes évocateurs (dans 20 à 50 % des cas). Confortés par les progrès de la neuro-imagerie, des travaux récents suggèrent l’existence d’anomalies volumétriques chez les individus à risque de psychose « très élevé » (ultra-high risk).
Fruit d’une collaboration internationale entre cinq équipes (deux à Londres, Royaume-Uni, une à Bâle, Suisse, une à Munich, Allemagne, et une à Melbourne, Australie), une étude compare l’évolution clinique et l’imagerie en résonance magnétique chez 182 sujets à risque et chez 167 sujets-témoins. Cette recherche confirme que les sujets avec des volumes de matière grise plus réduits dans les régions frontales (à droite comme à gauche) sont aussi les plus susceptibles de devenir psychotiques, environ deux ans plus tard. Concernant 26,4 % des sujets à risque, cette « association significative » vaut tout particulièrement pour les personnes ayant un déficit en matière grise dans le cortex parahippocampique gauche.
Pour les auteurs, ces anomalies (en particulier dans cette région du cortex parahippocampique gauche) sont donc probablement « cruciales dans l’expression de la maladie. » Notons que la précocité de la mise en évidence de ces altérations neuro-anatomiques (précédant ou accompagnant l’entrée dans la psychose) permet aussi d’écarter l’hypothèse où ces troubles seraient, au contraire, une conséquence de la maladie, plutôt qu’un contexte étiologique ou prédisposant.
JIM
|
|
|
|
|
|
|
|
Publiés dans la revue scientifique Nature Genetics, les résultats de l'étude génétique réalisée par les scientifiques du RIKEN Center for Genomic Medicine, du Hiroshima University Hospital et du Sapporo-Kosei General Hospital, démontrent que le risque élevé de développer un cancer du foie suite à une infection par le virus de l'hépatite C, est lié au polymorphisme d'un gène.
Le carcinome hépatocellulaire est un cancer primitif du foie. Il survient très souvent à la suite d'une maladie hépatique préexistante comme les cirrhoses dues à l'alcoolisme ou aux virus de l'hépatite B et C. Depuis une vingtaine d'années, l'incidence de ce cancer s'est vu augmentée par les habitudes de consommation et les styles de vie actuels. Parmi les sept types de cancer les plus fréquemment observés dans le monde, le carcinome hépatocellulaire est le troisième cancer le plus meurtrier. Le virus de l'hépatite C constitue notamment le facteur de risque le plus élevé (70 % des cas) dans la plupart des pays d'Occident et au Japon avec plus de 30.000 cas tous les ans.
Afin d'identifier les facteurs de risques génétiques liés au développement du cancer du foie à la suite d'une infection hépatique, les scientifiques ont réalisé une étude concernant plus de 3300 patients, tous porteurs du virus de l'hépatite C. Un total de 467 538 marqueurs génétiques ou Polymorphismes Nucléotidiques (SNP) a été analysé chez des patients souffrant de cancer du foie (212) et d'autres uniquement du virus de l'hépatite C (765). Le traitement statistique des données réalisées par rapport au sexe, à l'âge et à la numération plaquettaire des patients a permis d'identifier un gène à risque.
En effet, la variation d'une seule paire de base au niveau du locus DEPDC5 porté par le chromosome 22 doublerait les risques de développer un carcinome hépatocellulaire après infection par le virus de l'hépatite C. Une seconde étude portant sur 2335 patients dont 710 souffrant d'un cancer et 1625 uniquement porteurs du virus de l'hépatite C, a confirmé cette hypothèse. La découverte du locus polymorphique au niveau du gène DEPDC5 pourrait orienter les chercheurs vers de nouvelles stratégies de traitement et de dépistage précoce du carcinome hépatocellulaire.
Bulletins Electroniques
|
|
|
|
|
|
|
|
L’immunopathogenèse du diabète de type 1 (DT1) est associée à l’autoimmunité des cellules T. Et l’on sait que pour être complètement actives, les cellules T immunes ont besoin d’un signal de co-stimulation en plus du signal principal médié par l’antigène. Dans ce cadre, l’abatacept pourrait jouer un rôle. Rappelons que l’abatacept est une protéine de fusion d’immunoglobuline CTLA4 (Antigène 4 de lymphocyte T cytotoxique) ; cette dernière ayant un rôle essentiel dans la régulation négative de la réponse immune médiée par les cellules T. L’abatacept module la co-stimulation et prévient l’activation complète des cellules T, en exerçant une inhibition sélective de la réponse T-cellulaire plutôt qu’une large immunosuppression. Ainsi, on attend de l’abatacept une action immunomodulatrice moyenne, et efficace plutôt dans les stades précoces de la pathogenèse.
Dans un essai multicentrique, en double-aveugle, randomisé et contrôlé, des patients âgés de 6 à 45 ans, récemment diagnostiqués DT1, ont été randomisés (2:1) pour recevoir soit abatacept (10 mg/kg avec une dose maximale de 1 000 mg par dose), soit des perfusions de placebo intraveineuses, à J1, J14, J28, puis mensuellement jusqu’à un total de 27 perfusions sur 2 ans. Le critère principal était l’aire sous la courbe (ASC) de la concentration moyenne du C-peptide à 2 heures après un repas test au bout de 2 ans de traitement, comparé à l’inclusion.
Cent-douze patients ont été inclus (abatacept : n = 77, placebo : n = 35). L’ASC du C-peptide était 59 % plus élevée à 2 ans dans le groupe traité (0,378 nmol/l) que dans le groupe placebo (0,238 nmol/l). Cette différence entre les deux groupes était présente durant l’essai, avec un retard dans la diminution du C-peptide estimé à 9,6 mois (intervalle de confiance à 95 % de 3,47 à 15,6) sous abatacept. Le contrôle glycémique (HbA1c) était meilleur sous abatacept, au long de l’essai, et maintenu à 2 ans. La tolérance du produit a été bonne. Cependant, malgré l’administration continue du traitement pendant 2 ans, la perte de la fonction β-cellulaire sous abatacept était parallèle à celle sous placebo après 6 mois de traitement, ce qui conduit les auteurs à supposer que l’activation des cellules T diminue avec le temps, tandis que la maladie continue à progresser cliniquement.
JIM
|
|
|
|
|
|
|
|
Pour la première fois en France, un hôpital public va recourir aux qualités antibactériennes du cuivre pour lutter contre les maladies nosocomiales, responsables chaque année de 3 500 décès. Les services de réanimation et de pédiatrie de l’hôpital de Rambouillet vont être équipés de poignées de porte, barres de lits, mains courantes, plaques de propreté en cuivre et alliages de cuivre, labélisées Antimicrobial Copper. Selon une étude américaine dont les résultats viennent d'être présentés à la première Conférence Internationale sur la Prévention et le Contrôle des Infections (ICPIC) de Genève, l’utilisation de surfaces en cuivre permet de réduire de 40 % le taux d’infections dans les hôpitaux. L’étude révèle que dans plus d’un cas sur 3, les infections hospitalières sont contractées par contact avec des objets et surfaces contaminées. En éradiquant 90 à 100 % des bactéries, y compris les bactéries multi-résistantes (BMR) dont le staphylocoque doré résistant à la méthicilline (SARM), le cuivre s’érige comme une barrière de prévention de premier choix pour combattre les infections dans les hôpitaux, mais aussi dans notre environnement quotidien.
Le centre hospitalier de Rambouillet dans les Yvelines (78) s’apprête à équiper ses services de réanimation et de pédiatrie avec des éléments en cuivre et alliages de cuivre antibactériens. Il devient ainsi le premier hôpital français à recourir au métal rouge pour lutter contre les maladies nosocomiales. L’installation dans les chambres et les espaces communs de poignées de porte, mains courantes, robinets, barres de lits, plaques de propreté et plateaux roulants labellisés Antimicrobial Copper, a débuté au mois d’août.
Jean-Pierre Richard, Directeur de l’hôpital de Rambouillet explique : « Les très bons résultats des essais qui ont eu lieu ou sont actuellement en cours dans des hôpitaux du monde entier sont à l’origine de notre décision. Tous montrent que les surfaces en cuivre et alliage de cuivre dans les hôpitaux éradiquent continuellement les bactéries, y compris les plus résistantes. Si notre hôpital se classe déjà dans la meilleure catégorie des établissements qui luttent contre les maladies nosocomiales, nous souhaitons montrer l’exemple à travers une politique de prévention à la pointe des innovations ».
Les tests de laboratoire et les expériences in situ réalisées depuis 2007 montrent en effet que les surfaces en cuivre éradiquent naturellement 90 à 100 % des bactéries telles que le staphylocoque doré résistant à la méthicilline (SARM) de manière continue dans le temps. Associé au respect strict des règles d’hygiène et au lavage systématique des mains, le cuivre permet de réduire considérablement les risques d’infection par contact.
C’est la première fois qu’une étude établit une corrélation entre l’éradication des bactéries par les surfaces en cuivre et la baisse du taux d’infections. Le Professeur Michael Schmidt de l’Université de Médecine de Caroline du Sud qui dirige l’étude, explique : « On peut affirmer que dans plus d’un cas sur 3, et jusqu’à 80 % des cas, les maladies nosocomiales sont contractées ou transmises à la suite d’un contact avec des surfaces contaminées par des agents pathogènes. Cela montre combien il est crucial de conserver une hygiène irréprochable dans les hôpitaux. Grâce à leurs propriétés antibactériennes, le cuivre et ses alliages permettent d’abaisser la concentration bactérienne dans les services où ils sont utilisés. Conjugués aux protocoles d’hygiène les plus stricts, ils entrainent une réduction radicale du taux d’infection. »
L’hôpital de Rambouillet va également mesurer l’impact du dispositif mis en place sur le nombre de maladies contractées dans les deux services équipés d’éléments en cuivre et alliages de cuivre. Les premiers résultats devraient être disponibles dans un an. Rappelons qu’en France, les maladies nosocomiales sont responsables de plus de 3 500 décès par an. En sus de ce bilan humain, le rapport Vasselle de 2006 sur la politique de lutte contre les infections nosocomiales estime que ce fléau coûte entre 2,5 et 6 milliards d’euros chaque année à l’assurance-maladie.
Caducée
|
|
|
|
|
|
|
|
De très récents travaux font état d'une nouvelle découverte dans le domaine de la reprogrammation cellulaire. Les professeurs Suzuki et Sekiya du Medical Institute of Bioregulation de l'université de Kyushu à Fukuoka ont publié dans la revue Nature, datée du 30 juin 2011, un protocole expérimental permettant l'obtention d'hépatocytes directement en modifiant génétiquement des cellules de peau (fibroplastes).
Au stade embryonnaire, la formation des organes par différenciation de cellules souches répond à des critères spatio-temporels très précis. La formation du foie, par exemple, débute au niveau de l'endoderme ventral du tube digestif après la gastrulation au jour E8-9 (chez la souris). Les gènes menant à la différenciation hépatique ne pourront être traduits qu'à ce moment et qu'à cet emplacement précis, sous l'influence de différents facteurs solubles sécrétés par les tissus environnants. Le tissu endodermique formera alors des hépatoblastes, précurseurs cellulaires ayant la capacité de se spécialiser en deux types de cellules du foie : les cholangiocytes et les hépatocytes.
De récentes recherches ont cependant démontré que le programme de spécialisation de la voie hépatique pouvait également être déclenché dans des cellules ne faisant pas partie de la lignée hépatocytaire, notamment sous l'influence de stimuli particuliers ou bien en les fusionnant avec des hépatocytes. Ces avancées inattendues ont permis de supposer que le facteur essentiel à la différentiation des hépatocytes est également présent dans d'autres types de cellules et que son activation peut induire des caractéristiques propres aux hépatocytes.
Afin de confirmer cette hypothèse, les professeurs Suzuki et Sekiya ont étudié les effets de 12 différents facteurs de transcription hépatiques impliqués dans la différenciation cellulaire des hépatocytes. Trois combinaisons de deux facteurs de transcriptions (dont Hnf4a, Foxa1, Foxa 2 et Foxa 3) ont retenu l'attention des scientifiques. L'insertion de deux gènes dans des cellules embryonnaires et dans des fibroblastes adultes a permis dans les deux cas, l'obtention in vitro de cellules présentant des caractéristiques semblables aux hépatocytes.
Ces hépatocytes induits ou iHep (induced hepatocyte-like) présentent également une forte capacité à proliférer et à réparer des tissus endommagés (après transplantation chez la souris). Ce procédé ne faisant pas intervenir le stade intermédiaire des cellules souches iPS, présente l'avantage de diminuer les risques de carcinogenèse et d'augmenter le rendement d'induction de cellules hépatiques. La création de cellules iHep pourrait apporter des indices précieux sur les mécanismes moléculaires mis en jeu lors de la différenciation hépatique. En outre, elle pourrait également aboutir à des nouvelles thérapies de médecine régénératrice.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Le cancer de la prostate est certainement le cancer le plus fréquent chez l’homme avec 71 000 nouveaux cas, chaque année en France. Différents traitements existent en fonction du degré d’avancement de la tumeur. Les cancérologues peuvent avoir recours à la chirurgie, à la radiothérapie, à la thérapie hormonale et la chimiothérapie, mais le plus souvent c’est une combinaison de plusieurs de ces méthodes qui est employée pour soigner les patients.
Devant l’apparition de la résistance à l’hormonothérapie chez des personnes ayant développé un cancer de la prostate, Nima Sharifi et ses collègues de l’Université du Texas se sont intéressés à la production d’un androgène spécifique, la dihydrotestostérone (DHT), qui serait responsable de la prolifération cellulaire tumorale. Jusqu’à présent, il était admis que cette molécule avait pour précurseur la testostérone. Et donc, l’hormonothérapie avait pour but d’inhiber la production de cette dernière.
Après un certain nombre d’analyses et d’observations chez l’animal et chez l’homme, les chercheurs ont constaté que malgré l’absence de testostérone, il y avait production en grande quantité de DHT. Cette découverte met l’accent sur la possibilité qu’a notre organisme de développer des voies métaboliques alternatives. Ainsi, force est de constater que la progression tumorale dans un cancer de la prostate n’est pas due uniquement à la testostérone, comme on le pensait jusqu’alors. D’autres travaux de plus grande envergure devraient être mis en place afin de mieux comprendre les différents mécanismes mis en jeu et développer de nouvelles thérapeutiques afin de diminuer les cas de résistance au traitement actuel.
Information Hospitalière
|
|
|
|
|
|
|
|
Plusieurs travaux effectués sur des modèles animaux ou à partir de suivi de cohortes au cours des dernières années suggèrent un lien entre l’âge du père et le risque d’affection mentale. Des expériences effectuées chez la souris ont notamment mis en évidence un lien entre un âge paternel avancé et des déficits de contacts sociaux et de comportements exploratoires, des manifestations présentes dans la schizophrénie et l’autisme. Plus récemment, une équipe hollandaise a montré que l’âge du père augmentait le risque de développer ces deux maladies. Dans une population de plus de 70 000 personnes, les enfants nés de pères âgés de 40 ans avaient trois fois plus de risque d’être atteints d’autisme par rapport à ceux dont les pères avaient 20 ans.
Pour étayer ces suspicions sur la schizophrénie, l’équipe du Professeur Franck Schürhoff, Pôle de Psychiatrie du Groupe Hospitalier Chenevier-Mondor, Inserm unité 955, a effectué un minutieux travail de bibliographie afin de répertorier les études portant sur cette pathologie et pour lesquels l’âge du père était connu. Ils ont trouvé 13 études parues entre 2000 et 2009, incluant des dizaines de milliers de patients. "Parmi elles, deux méta-analyses synthétisant les résultats de plusieurs travaux apportent une grande puissance statistique", précise Franck Schürhoff. Tous les résultats concordent sur le fait que l’âge avancé du père au moment de la conception augmente le risque pour l’enfant de développer une schizophrénie. "A partir de 35 ans, le risque est multiplié par deux, puis augmente de façon linéaire avec l’âge. Au-delà de 50 ans, il est multiplié par 4", résume Franck Schürhoff. Ce résultat n’a pas été retrouvé pour la mère.
Les auteurs émettent plusieurs hypothèses pour expliquer ce phénomène mais l’apparition de mutations au moment de la spermatogenèse paraît la plus crédible. A 20 ans, les spermatogonies, précurseurs des spermatozoïdes ont subi 200 divisions chez l’homme et 600 à 40 ans. En comparaison, les cellules germinales des femmes ne subissent que 24 divisions pendant la vie fœtale. Le risque d’apparition et de transmission de mutations est donc largement plus important chez le père. La maladie ayant une forte composante génétique, ce phénomène pourrait ainsi expliquer les cas de schizophrénie sporadiques, c’est à dire sans antécédents familiaux. L’équipe de Franck Schürhoff va maintenant étudier la présentation clinique et l’évolution de ces cas de schizophrénies issus de pères âgés. "Si ces personnes présentent des caractéristiques cliniques identiques et forment en quelques sortes un sous groupe homogène de patients, nous pourrions essayer de mieux cerner les mécanismes impliqués dans ces cas de maladie", conclut Franck Schürhoff.
INSERM
|
|
|
|
|
|
|
|
Des chercheurs en Allemagne et aux États-Unis ont découvert que dès trois ans, les enfants partagent équitablement les jouets avec leurs camarades, mais uniquement s'ils ont travaillé ensemble pour les obtenir. Sous la conduite de l'institut Max Planck d'anthropologie évolutive en Allemagne, l'étude suggère que le partage chez l'enfant est un phénomène collaboratif. En opposition complète, les chimpanzés ne montrent jamais un tel partage, et leur comportement ne présente aucun indice d'une relation collaborative. Les résultats ont été publiés dans la revue Nature.
Avec leurs collègues de l'université de Harvard et de l'université d'état du Michigan aux États-Unis, les chercheurs allemands ont également constaté que les enfants qui reçoivent une récompense 'gratuitement' et pas pour leur coopération tendent davantage à la garder pour eux-mêmes. Il en va de même pour des enfants qui travaillent côte à côte mais n'interagissent pas : ils ne partagent pas les jouets.
Des études ont montré que les humains adultes génèrent la majeure partie de leurs ressources lorsqu'ils collaborent avec d'autres. Les adultes font l'effort de partager en termes d'impartialité, mais aussi d'équité. Les enfants ont une nature plus égoïste. Cette dernière étude montre néanmoins comment des enfants âgés de trois ans comprennent qu'une récompense a été obtenue ou non en collaboration, ce qui influence le partage des jouets avec les autres.
Pour l'étude, l'équipe a regroupé par paires des enfants de 2 à 3 ans, leur demandant de manipuler un dispositif pour obtenir des jouets (des billes). Dans la première partie, les enfants devaient tirer en même temps chaque extrémité d'une corde afin de rapprocher une planche portant les billes. Une fois l'action terminée, les enfants pouvaient avoir les jouets, mais l'un avait trois billes et l'autre une seule. Ce cas a été comparé avec une situation d'imprévu, avec la même distribution de jouets mais sans collaboration.
Cordis
|
|
|
|
|
|
|
|
Le taux d’expression du gène Kindlin-1 indique si les femmes atteintes de cancers du sein présentent un risque de développer des métastases pulmonaires. C’est la découverte que vient de publier l’équipe de Rosette Lidereau dans Journal of National Cancer Institut du 7 septembre 2011. En plus de ses qualités diagnostiques, Kindlin-1 possède bon nombre de caractéristiques pour devenir une cible thérapeutique. Il régule en effet l’une des voies de signalisation – la voie du facteur de croissance TGFβ – déréglée dans les cellules tumorales. En agissant sur Kindlin-1, les chercheurs espèrent pouvoir bloquer la prolifération des cellules tumorales et ainsi contenir le pouvoir agressif des tumeurs à fort risque de dissémination pulmonaire.
L’un des défis majeurs de la cancérologie est aujourd’hui d’anticiper puis de traiter les métastases chez les patients. Tant que la tumeur est localisée, les traitements par chirurgie et radiothérapie permettent de l’éliminer. En revanche quand la tumeur a commencé à disséminer, et surtout à former des métastases, la prise en charge devient beaucoup plus lourde et complexe.
Avant que des métastases apparaissent, les cellules tumorales ayant quitté la tumeur initiale doivent parcourir un long chemin et franchir de nombreuses étapes : invasion des tissus proches de la tumeur, utilisation d’une voie de circulation (sanguine ou lymphatique), survie en dehors du site tumoral initial, et enfin développement dans un nouvel organe. Selon la nature de la tumeur initiale, les cellules tumorales iront préférentiellement s’installer dans des sites spécifiques : os, cerveau, poumon…
Pour franchir chacune de ces étapes, les cellules tumorales se modifient au niveau moléculaire et acquièrent de nouvelles propriétés, d’où l’idée d’identifier des caractéristiques liées à cette transformation.
Dans ses précédents travaux, l’équipe de Rosette Lidereau (Inserm 735, laboratoire d’Oncogénétique de l’Institut Curie (Saint-Cloud)) avait identifié une signature composée de 6 gènes, caractéristique des cancers du sein ayant une forte propension à former des métastases dans les poumons. Parmi ces gènes, pourquoi kindlin-1 est-il devenu l’objet de toutes leurs attentions ? "Tout simplement parce qu’il existe un lien réel entre l’expression du gène Kindlin-1 et le développement de métastases pulmonaires chez les patientes atteintes de cancers du sein" explique Keltouma Driouch qui pilote cette étude. Kindlin-1 pourrait donc servir de marqueur pour identifier les femmes atteintes de cancers du sein et présentant un risque de développer des métastases pulmonaires.
Mais les potentialités de cette découverte ne s’arrêtent pas là. "En éteignant ce gène dans des modèles animaux, nous avons pu bloquer la croissance tumorale et le développement des métastases pulmonaires" ajoute la chercheuse. L’équipe s’est alors penchée sur ses effets au niveau cellulaire. La modification de l’expression de kindlin-1 perturbe la motilité des cellules et donc leur capacité invasive. "Tout laisse à penser que Kindlin-1 est à la croisée des chemins de plusieurs voies de signalisation et notamment celle régulant le facteur de croissance TGFβ, participant à la transformation tumorale et à son développement" ajoute-t-elle.
Dans les cellules normales, le facteur de croissance TGF-β peut arrêter le cycle cellulaire, stopper la prolifération et induire la mort de la cellule, si celle-ci représente un danger pour ses consoeurs ou l’organisme. Dans les cellules tumorales, les dysfonctionnements de la voie de signalisation font que le facteur TGF-β ne contrôle plus la cellule.
Kindlin-1, en tant que régulateur de la voie de signalisation TGFβ, représente une cible possible pour rétablir son fonctionnement et ainsi bloquer la prolifération des cellules. Au-delà de son rôle diagnostique pour les métastases pulmonaires chez les patients atteints de cancer du sein, Kindlin-1 ouvre une piste potentielle vers une nouvelle thérapie ciblée.
INSERM
|
|
|
|
|
|
|
|
Un consortium de chercheurs, notamment du CNRS, du CEA, de l'Inra et des Universités de la Méditerranée, de Paris-Sud, Toulouse et Grenoble 1, ont réalisé l'analyse du génome de la bactérie Ramlibacter tataouinensis TTB310, appelée aussi « bactérie du désert ». Le décryptage de son génome a révélé la présence du gène kaiC, un gène dont la fonction était jusqu'alors connue uniquement chez certaines bactéries photosynthétiques. Chez ces dernières, kaiC est responsable d'un mécanisme d'horloge moléculaire qui régule leur cycle cellulaire, en fonction du jour et de la nuit : on parle de rythme circadien endogène. Les résultats de cette étude suggèrent également que ce gène permettrait à la « bactérie du désert », non-photosynthétique, de caler son cycle cellulaire sur le cycle de l'eau dans les déserts chauds et secs. Cette découverte ouvre la voie à des recherches visant à comprendre le rôle des horloges moléculaires circadiennes dans l'adaptation des bactéries à leur environnement, qu'elles soient photosynthétiques ou non. Ces résultats ont été publiés en ligne le 2 septembre par la revue PLoS ONE.
Les déserts chauds et secs sont considérés comme les environnements les plus extrêmes pour la vie. La faible disponibilité en eau constitue un premier facteur limitant le développement de celle-ci. En effet, en dehors des épisodes pluvieux, l'eau n'est disponible qu'en fin de nuit sous forme de rosée. Mais ces déserts possèdent d'autres contraintes environnementales telles que le caractère très minéral du milieu (très peu de matière organique disponible), une exposition à de fortes radiations UV et de très fortes amplitudes de températures.
C'est au cours d'études menées sur les bactéries responsables de l'altération de la météorite de Tataouine dans le désert Sud tunisien, que les chercheurs ont réussi à isoler une nouvelle espèce de bactérie non-photosynthétique (Ramlibacter tataouinensis) appartenant au groupe des bétaprotéobactéries. La bactérie Ramlibacter tataouinensis TTB310 possède un cycle cellulaire original incluant deux phases : une phase de production de kystes non mobiles résistant à la dessiccation, et une phase de production de bâtonnets mobiles responsables de la dissémination. Ainsi, durant la journée, la bactérie Ramlibacter tataouinensis TTB310 bloquerait son cycle cellulaire en phase d'enkystement pour se protéger de la chaleur et de la sécheresse. Et ce n'est qu'à la fin de la nuit, lorsque la rosée apparaît, que la bactérie déclencherait soit la division des kystes soit la deuxième phase de son cycle au cours de laquelle les kystes se divisent pour donner des bâtonnets mobiles qui, une fois la dissémination effectuée, redeviennent des kystes.
L'analyse du génome de la bactérie Ramlibacter tataouinensis TTB310 a permis, dans un premier temps, de mettre en évidence un gène rarement décrit chez les bactéries non photosynthétiques : il s'agit du gène kaiC. Dans un second temps, cette étude suggère que kaiC possède, chez cette bactérie, une fonction similaire à celle connue chez plusieurs bactéries photosynthétiques. Ce gène fonctionnerait donc comme une horloge moléculaire endogène permettant à Ramlibacter tataouinensis TTB310 de caler son cycle cellulaire sur celui de l'eau dans les déserts chauds et secs. L'analyse du génome de Ramlibacter tataouinensis TTB310 a par ailleurs permis de révéler la présence de gènes en relation avec son cycle cellulaire original, comme par exemple une très grande diversité de voies de transduction des signaux intra- et extracellulaires.
Cette découverte enrichit les connaissances actuelles sur la diversité des cycles cellulaires chez les bactéries, et, dans le cas de Ramlibacter tataouinensis TTB310, sur la fonction de ce cycle cellulaire, en liaison avec l'horloge moléculaire, pour son adaptation aux conditions désertiques.
CNRS
|
|
|
|
|
|
|
|
Selon une étude réalisée sur des patients atteints de la myopathie de Duchenne qui vient d'être publiée par la revue médicale "The Lancet", il est possible, grâce à un traitement issu de la «pharmacogénétique» de rétablir en partie la production d'une protéine déficiente dans cette maladie.
La dystrophie musculaire de Duchenne (DMD) se traduit par une déficience musculaire, qui évolue progressivement vers une perte de la marche et un handicap majeur. La maladie est provoquée par une mutation d'un gène situé sur le chromosome X codant pour la dystrophine. Cette protéine est indispensable à la contraction des cellules musculaires et cardiaques. Un garçon sur 3 500 à la naissance est concerné, soit environ 5 000 personnes en France.
L'étude menée au Royaume-Uni sur 19 patients a démontré qu'il est possible de restaurer l'expression de cette protéine grâce à une stratégie thérapeutique utilisant le «saut d'exon». Les petites molécules "antisens", capables de réaliser ce saut d'exon parviennent à supprimer la partie anormale d'un gène pour restaurer la production de la protéine qu'il commande. Les exons sont des fragments codants du gène. Cette technique permet donc, en intervenant directement sur le gène anormal ou déficient, de rétablir partiellement la production de la protéine déficiente.
L'essai, soutenu par l'Institut britannique de la recherche et la société américaine AVI BioPharma, repose sur le saut d'exon 51, qui concernerait 15 % des patients. Au total, 19 garçons de 5 à 15 ans encore capables de marcher ont reçu pendant douze semaines des injections intraveineuses du traitement (appelé AVI-4658). Pour 7 d'entre eux, la réponse a été «significative» en termes de restauration de l'expression de la dystrophine. En revanche, Les chercheurs n'ont pas montré d'évolution de la fonction musculaire, comme par exemple une amélioration de la distance de marche, mais ce n'était pas l'objectif de cet essai limité.
Une autre étude concernant le saut d'exon 51, réalisée par les sociétés Prosensa et GSK est également très encourageante. Elle montre que l'administration par voie sous-cutanée durant 48 semaines chez 12 enfants âgés de 5 à 15 ans, du PRO-051 a permis une augmentation moyenne de la distance de marche (parcourue en six minutes) d'une trentaine de mètres. C'est la première fois qu'un traitement, au lieu de seulement ralentir l'évolution de la myopathie de Duchenne, améliore leur capacité de marche.
The Lancet
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
L’australopithèque Sediba, dont les restes ont été découverts dans les caves de Malapa en Afrique du Sud en 2008, pourrait être un ancêtre direct de l’homme. Découvert par l’universitaire Lee Berger, de l’université du Witwatersrand de Johannesburg, son squelette présente des caractères métissés entre humains et singes, d’après cinq articles publiés par 80 scientifiques dans Science Magazine, rapporte le New York Times.
Cet australopithèque, dont on a retrouvé une main presque complète, un pied et une partie du bassin, aurait vécu il y a plus de 1,9 million d’années. Cette main attire précisément toute l’attention des paléontologues : son pouce, relativement long par rapport aux autres doigts, forme une pince avec son index et devait lui permettre de manipuler précisément des outils comme l’Homo habilis, l’homme habile.
Par ailleurs, la forme des pied retrouvés laisse penser que les deux spécimens exhumés pouvaient marcher debout et ont pu grimper sur des arbres comme des chimpanzés en quête de nourriture et de protection. «Ce mélange de morphologies suggère que l'australopithèque de Malapa employait encore ses mains pour grimper aux arbres, mais avait aussi une dextérité nécessaire à la fabrication d'outils en pierre», précise à l'AFP Tracy Kivell, co-auteure de l’étude.
Enfin, le bassin du spécimen femelle est plutôt large et le cerveau retrouvé, aux caractéristiques modernes, s’avère petit, ce qui contredit l’idée répandue selon laquelle la grandeur du cerveau aurait forcé à l’évolution en largeur du bassin féminin pour l’accouchement. L’Australopithecus sediba devrait-il figurer dans la lignée des ancêtres de l’Homo erectus ? Depuis la découverte du site de Malapa par le chercheur Lee Berger et son fils lors d’une promenade, 220 ossements ont été trouvés provenant d’au moins cinq individus.
Le professeur Lee Berger conteste toutefois l’appellation du «chaînon manquant» dans la lignée des hominidés, selon le site sud-africain Business Day : «Nous n’utilisons pas ce terme –car ce n’est pas une découverte capitale mais plutôt quelque chose qui se raccroche à la branche des homo. C’est un fossile de transition avec des traits mixés, des caractères anciens et nouveaux.» Une position également privilégiée par le paléoanthropologiste Ian Tattersall du musée américain d’histoire naturelle à New York. «C’est plus signifiant de prendre l’australopithèque sediba comme une métaphore de l’évolutionnisme que de le prendre comme preuve d’une ascendance directe.»
Slate
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|