|
|
Edito
Dépistage et prévention du cancer : vers une approche personnalisée
Avec le vieillissement généralisé de notre population, la prévention et le dépistage précoce des cancers sont en train de devenir un enjeu médical, social, politique et économique majeur car deux cancers sur trois, il faut le rappeler, surviennent après 65 ans. Cancer et vieillissement sont donc intimement liés et de très nombreuses études épidémiologiques nationales et internationales montrent l'utilité d'une politique de dépistage bien définie et bien menée en terme de réduction des risques de mortalité mais également de qualité de vie pour le patient et, bien sûr, en terme d'économie globale pour la collectivité.
Malheureusement, la France reste très en retard en matière de prévention par rapport à ses grands voisins européens. En outre, il faut en général 15 ou 20 ans pour qu'une action de prévention et de dépistage porte complètement ses fruits et cette durée n'est guère compatible avec le "temps politique" qui s'inscrit essentiellement dans l'action visible et rapide. Une grande étude américaine publiée en 2010 a montré que l'adoption d'un ensemble cohérent de mesures de prévention par 90 % de la société américaine pourrait permettre, en théorie, d'éviter 7 millions de décès prématurés et d'économiser plus de 10 milliards de dollars par an.
Mais si personne ne met en doute le principe même de la prévention médicale, tout se complique lorsqu'on passe à sa mise en oeuvre effective et à l'évaluation de ses bénéfices réels pour les patients, d'une part, et pour la société, d'autre part.
A cet égard, le débat actuel qui a lieu en Europe et en France sur l'utilité d'un dépistage généralisé du cancer de la prostate est particulièrement intéressant et éclairant. Au niveau européen, une vaste étude a été réalisée entre 1990 et 2007 sur plus de 160 000 hommes âgés de plus de 55 ans, pour tenter d'évaluer précisément l'utilité du dépistage du cancer de la prostate à l'aide du dosage de la PSA (antigène prostatique spécifique). Les résultats de cette étude sont sans appel : ils montrent qu’il est nécessaire de réaliser au moins 1 400 dépistages et de traiter 50 patients pour éviter in fine un décès par cancer de la prostate ! En outre, ce décès évité revient à plus de 4 millions d'euros pour la collectivité.
L'enjeu constitué par le dépistage précoce du cancer de la prostate est d'autant plus important à évaluer que ce cancer est devenu le plus fréquent en France (70 000 nouveaux cas en 2011) et constitue maintenant la troisième cause de mortalité par cancer dans notre pays (8 500 morts par an). Face à ce défi de santé publique, notre pays a mis en place depuis une dizaine d'années une politique de dépistage systématique pour le cancer de la prostate et on estime que 70 % des hommes de plus de 50 ans pratiquent ce dépistage par la méthode classique et bien connue du dosage de la PSA, l'antigène spécifique de la prostate.
Mais aujourd'hui, la Haute autorité de Santé (HAS), remet clairement en cause l'intérêt médical de ce dépistage de masse, ce qui suscite un vif débat au sein des la communauté médicale et scientifique et entraîne également des interrogations dans le grand public. Elle souligne, en s'appuyant sur plusieurs études, qu'il est difficile et parfois impossible d'isoler les patients à risque et d'identifier les hommes qui souffriront de la forme la plus agressive et la plus évolutive de cancer de la prostate.
La Haute Autorité de Santé considère que le dépistage systématique du cancer de la prostate par dosage du PSA ne présente pas de preuves scientifiques suffisantes de son efficacité et de son intérêt et qu'il convient de privilégier l'information personnelle et le dépistage "à la carte", en fonction des risques spécifiques à chaque patient (voir rapport complet).
Une autre étude publiée dans le New England Journal of Medecine a montré que le dépistage du cancer de la prostate par dosage de l'antigène prostatique spécifique (PSA) tous les quatre ans réduisait certes de 40 % le risque de décès dû au cancer de la prostate. Mais cette étude souligne également que le dépistage ne modifie pas, in fine, le taux de mortalité global des patients considérés, simplement parce que la majorité de ces hommes âgés souffrant d'un cancer de la prostate connaissent une évolution lente de leur maladie et finissent par mourir d'une autre cause !
A la suite de ces études, la plupart des pays développés ont renoncé à la mise en place d'un dépistage généralisé du cancer de la prostate. En France, la prévention et le dépistage de ce cancer vont à présent être envisagés et pratiqués de manière individuelle, en tenant compte de plusieurs facteurs personnels : âge et état du patient, type de tumeur, etc...
Autre exemple, le cancer du poumon, particulièrement meurtrier (environ 15 % de survie à 5 ans). Pour ce cancer grave, une vaste étude européenne lancée il y a 10 ans chez les fumeurs de plus de 55 ans a montré qu'une prévention généralisée n'apportait pas non plus de gains significatifs en matière de prise en charge et de réduction de la mortalité finale des patients. En outre, cette prévention généralisée requiert des examens qui entraînent de nombreux cas de "faux positifs" (entre 20 et 30 % selon les techniques utilisées) car la moitié des patients intégrés dans cette étude sont porteurs de nodules bénins. Comme pour le cancer de la prostate, un dépistage généralisé du cancer du poumon risquerait donc d'angoisser sans raison un grand nombre de patients, et entraînerait en outre une multitude d'examens douloureux et coûteux pour la collectivité, sans permettre pour autant une baisse importante de la mortalité.
S'agissant du cancer du colon qui, avec 40.000 nouveaux cas par an en France, vient en seconde position pour la mortalité par cancer en France, le taux de survie, grâce aux avancées thérapeutiques remarquables de ces dernières années, peut atteindre 90 % en cas de détection précoce de la tumeur, ce qui rend d'autant plus importante la mise en place d'un dépistage adapté. A cet égard, une étude canadienne a montré, en passant au crible les dossiers médicaux de 10 000 patients décédés d'un cancer du colon et de 50 000 patients n'ayant pas été touchés par ce cancer, qu'une coloscopie préventive pouvait réduire les risques de décès par cancer colorectal d'environ 60 % . En France, le dépistage systématique du cancer du colon existe depuis 2009 mais la participation des patients stagne autour de 35 % à cause des contraintes particulières liées au prélèvement des selles.
En cas de test positif, une coloscopie est pratiquée et celle-ci révèle un cancer dans un cas sur 10 et des polypes importants dans 20 % des cas. La majorité des cancers détectés à la suite de ce dépistage en sont encore au premier stade et peuvent être guéris dans 9 cas sur 10.
Enfin, s'agissant du cancer du sein, plusieurs études, dont celle, très documentée, publiée par Per-Henrik Zahl, de l'Institut norvégien de santé publique en 2006, ont montré que le bénéfice médical du dépistage généralisé du cancer du sein avait été nettement surévalué. En effet, si l'on prend en compte à la fois la forte augmentation de l'incidence de ce type de cancer depuis 30 ans et la faible diminution de la mortalité par cancer du sein, corrigée de l'évolution démographique (29 femmes décédées sur 100 000 en 1993, contre 27 en 2007 en France), on constate que le dépistage massif du cancer du sein en France ne semble pas avoir entraîné, comme on l'espérait, une diminution sensible de la mortalité par cette pathologie. Comme le mieux est souvent l'ennemi du bien, Il semble même que le dépistage généralisé du cancer du sein ait conduit, pour certaines patientes et pour certains types de tumeurs, à des traitements inutiles et lourds alors que ces tumeurs avaient de forte probabilité de ne pas évoluer ou d'évoluer si lentement que les patientes en question seraient finalement décédées pour d'autres raisons !
A la lumière de ces récentes études, qui montrent de manière rigoureuse que des politiques de dépistage généralisé "tous azimuts" ont un faible rapport coût-bénéfices" et une utilité finale limitée pour les patients (en termes de mortalité), les grands pays développés, dont la France, sont en train de revoir en profondeur leurs approches méthodologiques et stratégiques concernant le dépistage et la prévention, notamment en matière de cancer. Il est en effet à présent démontré qu'en matière de cancers, dans le contexte démographique actuel d'une population vieillissante, le dépistage et la prévention appliquée sans discrimination à l'ensemble d'une population n'apportent pas toujours les bénéfices médicaux escomptés et peuvent même s'avérer inutilement pénibles ou dangereux pour certains patients.
Il faut également admettre, même si cela n'est pas toujours facile à expliquer aux patients, qu'un dépistage généralisé chez des personnes ayant dépassé un certain âge et pour certains types de cancer, ne permet pas toujours d'augmenter l'espérance de vie finale car une proportion non négligeable de tumeurs cancéreuses, si elles n'avaient pas été détectées et traitées, n'auraient pas évolué assez vite pour menacer la vie de ces patients. En outre, même lorsque ce dépistage permet de détecter, de traiter et du guérir la pathologie cancéreuse recherchée, le patient souvent âgé, va finir par mourir d'une autre cause sans que son espérance de vie totale s'en trouve significativement allongée.
C'est pourquoi, en s'appuyant sur la mise au point de tests spécifiques beaucoup plus précis, sur la connaissance du génome individuel (voir mon éditorial du 9 mars 2012) et sur le classement génétique des tumeurs, la voie de l'avenir consiste à mettre en place un dépistage et une prévention hautement personnalisés, reposant sur les antécédents familiaux et les risques génétiques propres à chaque individu. Il s'agira, à coût constant, de réserver le dépistage prioritairement aux patients qui présentent des risques sensiblement plus élevés de développer tel ou tel cancer.
Même si elle bouleverse bien des habitudes et pratiques médicales et nous oblige à remettre en cause certaines idées reçues, cette nouvelle approche ciblée, combinant prévention ciblée et active, dépistage personnalisé et évaluation génétique fine des risques, est donc appelée à se substituer rapidement aux politiques de dépistage "aveugles" et massives qui peuvent peut-être rassurer la population mais ne permettent pas de progrès décisifs en matière de prévention et de lutte contre les cancers.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Facebook a révolutionné nos modes de communication. Nous utilisons désormais ce service de mise en réseau social pour être en contact avec nos amis et notre famille, jouer à des jeux en ligne ou suivre les derniers développements de l'actualité.
Mais combien d'heures par jour passons-nous dessus ? Une nouvelle étude suédoise a démontré que la moyenne de temps en ligne était de 75 minutes pour les utilisateurs, avec 81 minutes pour les femmes et 64 pour les hommes. Les données montrent également que les personnes ayant un faible niveau de scolarité et à revenus faibles passent le plus de temps sur Facebook et sont moins heureux et satisfaits de leur vie. Sous la direction de l'université de Göteborg, l'étude a identifié un lien important entre les femmes passant du temps sur Facebook et le bien-être. Ce n'est pas le cas pour les hommes.
En général, 1000 sujets ont été évalués dans ce que les chercheurs considèrent comme la plus grosse étude sur Facebook. Les données suggèrent que Facebook est une activité créant une dépendance; en effet 85 % des sujets expliquent que Facebook fait désormais partie de leur vie quotidienne. Près de 50 % des sujets de l'étude déclaraient qu'être au courant des derniers développements et événements de l'actualité ne serait pas aussi facile si Facebook ne faisait pas partie de leur vie. Près de 25 % expliquent qu'ils se sentaient mal s'ils ne se connectaient pas sur le site régulièrement.
«L'étude nous enseigne que Facebook est utilisé comme outil de contact avec ses amis et ses proches, ainsi qu'en tant qu'interface personnel, dans lequel les utilisateurs montrent leurs côtés positifs», commentent les auteurs de l'étude. «Mais c'est également là que réside le danger. Lorsque les utilisateurs comparent leur vie à celles d'autres personnes ayant des relations heureuses et des carrières professionnelles réussie, ils sentent que leur vie est moins réussie.»
Le nombre de connexions au site par jour est de 6,1, et 70 % d'entre eux se connectent dès qu'ils allument leur ordinateur. Plus de deux tiers des jeunes utilisent Facebook pour faire passer le temps, tandis que 38 % des sujets ont révélé des informations négatives dans leurs statuts. Plus de la moitié des sujets utilisent Facebook pour diffuser des informations et leurs connaissances. «Facebook prend l'allure d'une habitude inconsciente», commente Leif Denti, étudiant en doctorat de l'université de Göteborg et auteur de l'étude. «La majorité des interrogés se connectent à chaque fois qu'ils lancent le navigateur Internet. Cela pourrait se transformer en addiction.»
Des sujets mâles, 33 % expliquent qu'ils provoquent d'autres sur Facebook, contre 20 % des femmes. Près d'un quart des personnes interrogées utilisent Facebook pour se vanter.
«Facebook est un outil social utilisé pour gérer les relations avec les amis et la famille», commente M. Denti. «Mais les utilisateurs ne racontent pas tout, ce qu'ils partagent correspond à des événements importants, positifs, ou lorsqu'ils se sentent bien. Seuls 38 % partagent des émotions et des événements négatifs.»
Cordis
|
|
|
|
|
|
|
|
Google persiste et signe. Malgré un échec aux Etats-Unis, le géant de Mountain View devrait lancer ses Google TV en France en septembre, selon Les Echos. Le groupe avait déjà confirmé qu'il se lancerait en Europe cette année. Contrairement aux USA, il ne s'agira pas de téléviseurs connectés mais de boîtiers connectables fabriqués par Sony. Ils seront évidemment animés par Android et donneront accès à Google Play (plate-forme de contenus), aux services de Sony comme Video Unlimited et YouTube.
La première box sera un simple décodeur vendu autour de 200 euros. Le second sera équipé d'un lecteur Blu-ray et sera vendu 300 euros environ. Pour Google, le challenge sera néanmoins difficile. Il faudra d'abord négocier avec les chaînes de TV afin qu'elles soient présentes dans ces box. Or, les diffuseurs voient d'un très mauvais oeil les ambitions de Google dans la TV connectée. Leur crainte ? Que Google incruste sur leurs programmes des widgets ou des liens vers ses services. Or, les chaînes veulent garder le contrôle de leurs programmes et entendent veiller jalousement sur leur intégrité. Il y a donc fort à parier que les grands groupes français de télévision rejettent en bloc Google TV et tentent de mettre en place leurs propres solutions.
Seconde difficulté : la présence en France d'un massif parc de box connectées fournies par les FAI. Ces box permettent bien sûr de recevoir la télévision mais donnent de plus en plus accès à des services dédiés comme la VOD, le Web, les jeux... Sans parler des consoles de jeu qui, elles aussi, font transiter de la télévision. Cette particularité du marché français plombe d'ailleurs l'essor des TV connectées. En France, seulement 1,6 million de téléviseurs connectables ont été vendus en 2011, selon GfK, soit moitié moins que prévu.
ZDNet
|
|
|
|
|
|
|
|
Concevoir et fabriquer son propre robot à partir de son ordinateur personnel pour exécuter de simples tâches est l'objectif d'un ambitieux projet dirigé par le Massachusetts Institute of Technology (MIT) dévoilé ces jours derniers.
Ce projet de cinq ans, financé par un don de 10 millions de dollars de la National Science Foundation (NSF), a pour objectif de mettre au point des technologies utilisables par des PC permettant à «une personne sans formation informatique ou technique particulière de concevoir, de personnaliser et d'imprimer --en trois dimensions-- un robot en l'espace de quelques heures», précise le célèbre institut américain dans un communiqué.
«Cette recherche imagine une nouvelle façon de penser la conception et la fabrication de robots. Elle pourrait avoir un impact majeur sur la société», explique Daniela Rus, la responsable de ce projet. «Nous pensons que cette approche a le potentiel de transformer la production manufacturière et de démocratiser l'accès aux robots», estime cette chercheuse au laboratoire d'intelligence artificielle et de sciences informatiques (CSAIL) du MIT.
«Notre but est de mettre au point des technologies permettant à chacun de fabriquer son propre robot, ce qui est vraiment révolutionnaire», ajoute Vijay Kumar, patron de l'équipe de l'Université de Pennsylvanie (est). «Cela pourrait ouvrir la voie à la conception rapide et à la production de produits ou biens sur mesure et de bouleverser l'enseignement de la science et de la technologie dans les lycées», selon lui.
Il faut actuellement des années pour concevoir un robot, le produire et le programmer et ce processus est très coûteux, nécessitant des matériaux et équipements ainsi que des logiciels très avancés et des systèmes d'apprentissage et de vision, expliquent ces scientifiques.
Ce projet permet d'utiliser des matériaux aussi simples que des feuilles de papier, précisent-ils. Baptisé «Expédition dans la science informatique pour concevoir des machines programmables et pouvant être imprimées» en trois dimensions, le projet rassemble également des chercheurs de l'Université Harvard.
Cyberpresse
MIT
|
|
|
|
|
|
|
|
Sur le site du Guardian, le journaliste et écrivain John Naughton explique pourquoi algorithmes, cryptographie et heuristique devraient figurer au plus vite dans les programmes scolaires. Les cours d’informatique tels qu’ils sont conçus aujourd’hui pousseraient selon lui les enfants à appréhender passivement les machines : «Au lieu d’éduquer les enfants au sujet d’une des technologies les plus révolutionnaires de leur jeune vie, nous nous sommes bornés à les entraîner à utiliser des programmes obsolètes.»
Pourquoi cette erreur ? L’auteur compare l’enseignement de l’informatique à celui de la conduite : «Nous avons fait l’erreur de penser qu’apprendre à se servir d’un ordinateur est comme apprendre à conduire une voiture et, de la même manière que la compréhension du processus de combustion n’est pas essentielle pour devenir un bon conducteur, on en a déduit que comprendre le fonctionnement des ordinateurs n’était pas important pour nos enfants.»
Ce n’est pourtant pas faute d’avoir essayer. John Naughton rappelle qu’à une époque les écoles britanniques avaient tenté d’enseigner l’utilisation de Logo dans les salles de classes, un logiciel permettant aux enfants d’appréhender les bases de la programmation (tout comme le fait Kodu aujourd’hui). Les établissements semblent cependant avoir vite baissé les bras, préférant revenir aux fondamentaux de l’utilisation de programmes comme Word ou Excel.
En janvier dernier, réagissant à une campagne justement lancée par le Guardian en faveur d’un changement drastique dans l’enseignement de l’informatique, le ministère de l’Education avait annoncé que les enfants allaient dorénavant avoir la possibilité de «bidouiller» eux-mêmes. Introduire une part de «faisocratie» (ou doocracy) chère aux hackers dans le modèle méritocratique, en quelque sorte.
Mais par où commencer ? Si les enseignants reconnaissent la nécessité d’une réforme, ils font aussi remarquer que les premiers à avoir besoin de véritables cours d’informatique sont… les enseignants eux-mêmes. Comme le souligne le site WebProNews, très peu de professeurs en informatique savent réellement programmer.
Les choses semblent en tout cas commencer à bouger. Selon le New York Times, les cours du soir pour apprendre le code voient leur fréquentation s’envoler aux Etats-Unis. Pas pour devenir le nouveau Mark Zuckerberg ou faire partie de la nouvelle élite, mais simplement pour comprendre comment fonctionnent les choses.
En France, une nouvelle matière devrait voir le jour en 2013, mais seulement pour les lycéens préparant le bac S.
Slate
|
|
|
|
|
|
|
|
L'Américain Ian Agol a prouvé la « conjecture de fibration virtuelle », énoncée par William Thurston en 1982 dans le cadre d'un vaste programme qui englobait notamment la conjecture de Poincaré.
En 2003, le mathématicien russe Grigory Perelman prouvait la conjecture de Poincaré (l'un des sept problèmes du millénaire, selon l'Institut Clay de mathématiques), énoncée un siècle plus tôt. Cette conjecture, désormais théorème, stipule que « toute variété compacte de dimension 3, sans bord et simplement connexe, est homéomorphe à la sphère tridimensionnelle. » Diminuée d'une dimension, elle signifie que toute surface fermée et sans trou peut être déformée continûment en une surface sphérique. Rappelons qu'une variété est le nom générique d'un espace topologique de dimension quelconque : la surface d'une sphère, celle d'un bretzel ou le ruban de Moebius en sont des exemples en deux dimensions.
La conjecture de Poincaré avait été placée par l'Américain William Thurston dans le contexte plus vaste de sa conjecture de géométrisation, qui est l'objet réel de la démonstration de G. Perelman. Selon cette conjecture, toute variété de dimension 3 peut-être géométrisée, c'est-à-dire découpée en morceaux que l'on peut, chacun, décrire grâce à une des huit géométries dites de Thurston. En dimension 2, trois géométries suffisent (les géométries euclidienne, sphérique et hyperbolique), mais en dimension 3, on doit en ajouter cinq autres. La conjecture de Poincaré correspond à la conjecture de Thurston quand la variété de dimension 3 est simplement connexe, c'est-à-dire sans trou.
En 1982, dans un article fondateur qui faisait office de programme, W. Thurston posa 24 problèmes (dont celui de la géométrisation) plus ou moins précis et reliés entre eux. Une solution à l'un d'eux a été proposée par le mathématicien américain Ian Agol, professeur à l'Université de Californie, à Berkeley, le lundi 26 mars, lors d'un colloque organisé à l'Institut Henri Poincaré, à Paris. Avec ces résultats, un seul des 24 problèmes reste en suspens, qui est de nature plus arithmétique. La conjecture résolue par I. Agol est celle de la fibration virtuelle, qui affirme que toute variété hyperbolique de dimension 3 peut être dépliée en une variété fibrée.
Pour en savoir plus : Pour La Science
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Il y a des héros méconnus tout autour de nous. Mais quand vous avez besoin de sortir d’une situation difficile, il serait un peu farfelu d’imaginer que Superman pourrait être le candidat idéal pour vous venir en aide. En revanche, si vous êtes pris un jour dans un violent incendie, coincé à l’étage de votre maison, il se pourrait bien qu’au lieu d’un pompier, vous soyez secouru un jour par un robot. Le robot Octavia de l’US Navy est non seulement extrêmement maniable, mais il est également doté de la vue grâce à une caméra infrarouge intégrée, et est assez intelligent pour recevoir des ordres transmis par ses coéquipiers, via la langue des signes ou du texte.
Octavia ne connaît pas la peur et se déplace aisément dans un brasier afin de porter secours aux personnes prises au piège dans un enfer de débris, fumée et de flammes. Grâce à son canon intégré à air comprimé/eau, il peut se frayer un chemin dans une pièce apparemment sans issue. Le seul problème est qu’il serait nécessaire que le public apprenne à être sauvé par un robot…
Selon le Laboratoire de recherche de l’US Navy, « Même en temps de paix, les incendies représentent un des plus grands risques pour la flotte navale américaine. » Je suppose qu’Octavia connaîtra d’abord la lutte contre le feu sur un navire ou un sous-marin, afin de se joindre un jour aux forces de lutte contre les incendies à terre. Il reste tout de même encore certains réglages à peaufiner pour s’assurer que Octavia fonctionne parfaitement bien.
Ubergizmo
|
|
|
|
|
|
|
|
Google a dévoilé, mercredi 4 avril, un tout premier aperçu de son projet de lunettes ayant recours à la "réalité augmentée", confirmant la rumeur qu'il travaille sur cette nouvelle technologie mêlant monde réel et monde virtuel. Le géant américain de l'Internet a publié une courte vidéo de son projet actuellement à l'étude, intitulé "Project Glass".
Le film transporte l'utilisateur derrière d'étroites lunettes d'allure futuriste, flanquées de minuscules caméras sur les côtés. Celles-ci permettent de capter une scène du monde extérieur, comme une affiche de concert, et d'y juxtaposer une couche virtuelle en 3D contenant des informations venant d'Internet, comme le lien vers la vente de tickets pour le concert en question. Des microphones intégrés aux lunettes permettent de faire appel, par la voix, à des liens vers Internet, que ce soit des indications d'itinéraires, les prévisions météo ou des messages d'amis.
Les membres de l'équipe du laboratoire Google X à l'origine de ce projet expliquent :"Nous avons pris des photos du modèle en création pour montrer à quoi cette technologie peut ressembler et nous avons réalisé cette vidéo pour prouver ce qu'elle pourrait être capable de faire", soulignant que ce projet de lunettes en réalité augmentée est encore loin d'être commercialisé.
Le géant de l'Internet indique en outre "partager aujourd'hui ces informations car nous voulons démarrer une conversation (avec le public) et tirer des enseignements de ses opinions qui ont de la valeur". L'équipe du projet invite ainsi les internautes à proposer des idées sur la page Google+. La réalité augmentée existe depuis une quinzaine d'années mais n'est guère sortie des laboratoires.
Le Nouvel Observateur
BBC High Tech
Présentation vidéo sur le Washington Post
|
|
|
|
|
|
|
|
Détruire les mauvaises herbes et non les plantes cultivées a toujours été un problème, longtemps résolu par l'utilisation d'une abondante main d'oeuvre puis par le recours aux herbicides. Il existe pourtant déjà des robots capables d'accomplir cette tâche si les mauvaises herbes sont entre les lignes de culture ou entre des plants régulièrement espacés. Mais lorsque plantes de culture et adventices sont mélangées ? Des chercheurs de Gembloux Agro-Bio Tech ont mis au point une méthode de reconnaissance basée sur la hauteur des plantes.
Responsable du service Mécanique et construction au sein de Gembloux Agro-Bio Tech, le Professeur Marie-France Destain situe d'emblée les recherches que son laboratoire mène aujourd'hui : " Le service s'est toujours occupé de la mécanisation de l'agriculture. Mais depuis quelques années, nous avons mis l'accent sur les capteurs et les systèmes automatiques. La vision artificielle prend évidemment une place importante dans ce contexte. Mais c'est une vision artificielle un peu particulière puisque située dans un environnement extérieur, très différent d'un milieu industriel où il y a toujours le même éclairage par exemple. Ici, nous sommes en présence d'un éclairage fluctuant, d'un sol qui est très variable, etc. Les conditions environnementales changent constamment.
Nous avons commencé par le contrôle de qualité de fruits et légumes et une spin off (Visar) qui propose des machines de tri en temps réel de carottes ou de pommes de terre a été créée. Nous avons aussi fait du contrôle de semences. Dans le cadre d'un nouveau master en sciences et technologies de l'environnement, notre expérience en vision a été réorientée vers des aspects environnementaux et nous sommes ainsi arrivés à la reconnaissance des adventices, c'est-à-dire les mauvaises herbes. C'est un challenge important puisqu'à l'heure actuelle, on utilise beaucoup d'herbicides avec les conséquences que l'on sait. Or, en agriculture biologique, les règlementations sont très strictes et, aujourd'hui, il faut presque toujours travailler de manière manuelle ! Une société nous a donc contactés pour étudier l'idée d'un robot qui pourrait reconnaître et détruire les mauvaises herbes automatiquement. "
Qu'il faille détruire les " mauvaises herbes " ou adventices, tout jardinier le sait : elles prennent la lumière, l'eau, les nutriments et l'espace au détriment des plantes qu'on veut cultiver. Sans parler des semences qu'elles ne manqueront pas de semer à tout vent. Chacun sait aussi qu'il existe plusieurs méthodes pour s'en débarrasser : chimiques, non chimiques, intégrées ou, le plus souvent, une combinaison de ces moyens. L'idée d'essayer de faire détruire ces adventices pas des robots n'est pas neuve. Il en existe déjà sur le marché mais ils ne sont utilisables que quand on connaît a priori l'écartement entre les lignes et entre les plantes (et que celui-ci est conservé bien sûr !).
Mais le défi relevé par les chercheurs gembloutois est d'une toute autre nature : comment faire lorsque plantes de culture et mauvaises herbes sont mélangées. Pour y arriver, l'équipe de Marie-France Destain a eu recours à la vision stéréoscopique. Le système le plus connu et le plus simple est la stéréoscopie passive. Dans ce cas, on utilise deux caméras qui doivent viser le même point ; le système calcule la hauteur à partir de ces deux points. Mais vu la grande variabilité des cas, cela s'est avéré insuffisant. " Nous avons donc, explique Marie-France Destain, utilisé une méthode de stéréoscopie active : un projecteur vidéo projette sur la plante une série de franges lumineuses noires et blanches codées, un peu comme un code-barre. La scène perçue par les caméras laisse apparaître des distorsions de lignes, information de relief. Bien sûr, nous ne nous contentons pas d'un seul cliché, il faut en prendre un grand nombre ; chaque image est donc formée de plusieurs images intermédiaires. Le principe de décodage repose sur la corrélation entre signaux émis et signaux reçus. "
Il reste cependant un point à régler : comment le robot va-t-il savoir qu'il doit intervenir ? Faut-il introduire des données sur les hauteurs de plantes par exemple? " Non, répond Marie-France Destain. Au départ, on se disait qu'il fallait introduire la date de semis, à partir de laquelle le système allait déterminer la hauteur la plus probable des plantes en fonction de cette date. Mais il y a les aléas climatologiques, etc. Nous avons donc choisi de travailler en tenant compte d'aspects statistiques liés à la croissance des plantes. "
Techniques de l'Ingénieur
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Si l'on connaît les voitures électriques de Honda qui fonctionnent avec une pile à combustible, on sait moins que le constructeur japonais s'inquiète aussi du mode de production de l'hydrogène qui les alimente. Un générateur solaire vient d'être étrenné au Japon, à des fins expérimentales.
Une voiture électrique peut puiser son énergie dans une batterie d'accumulateurs (généralement au lithium-ion, composé offrant à l'heure actuelle le meilleur compromis entre densité énergétique et coût) ou bien tenter de fabriquer son courant tandis qu'elle roule. C'est le cas par exemple de la Chevrolet Volt (alias Opel Ampera) qui, une fois ses faibles batteries épuisées, sollicite son moteur 4-cylindres essence pour entraîner une génératrice de courant. C'est aussi le cas de la Honda FCX Clarity qui, elle, combine dans le secret de sa pile à combustible l'oxygène de l'atmosphère avec le dihydrogène qu'elle embarque sous pression.
Aussi, on comprendra qu'à la double question de la masse et de l'autonomie des batteries se substitue celle du rendement de la pile à combustible et de son approvisionnement en hydrogène. Ce n'est pas tant sa production qui pose problème (encore qu'il provient souvent du reformage d'une énergie fossile... ) que son acheminement et sa distribution. Depuis 2008, le constructeur japonais Honda expérimente sa pile à combustible maison : elle anime les quelque centaines d'exemplaires de la berline FCX Clarity 100 % électrique qu'il a louée pour une durée de cinq ans à des clients américains et japonais. Mais depuis le début, ce programme de recherches de longue haleine sur la miniaturisation et la popularisation de la pile se double de travaux de mise au point d'un générateur domestique d'hydrogène.
Les premières versions font appel, en toute simplicité, au réseau électrique domestique pour assurer l'électrolyse de l'eau, recueillir puis comprimer le dihydrogène. Nouvelle étape avec la mise en service au Japon d'un générateur qui puise son courant électrique dans le soleil, grâce à des panneaux photovoltaïques. Le courant du secteur ne vient plus qu'en renfort.
Si l'on en croit Honda, cette station d'hydrogène solaire serait capable de produire 1,5 kg d'hydrogène toutes les 24 heures, soit une quantité suffisante pour parcourir près de 150 km au volant de la FCX Clarity. L'ambition de Honda pour cette station d'hydrogène reste la même, qu'elle soit solaire ou non : augmenter son rendement de sorte à pouvoir alimenter la voiture à pile à combustible mais aussi assurer une source d'énergie propre et renouvelable pour la maison. La Honda FCX Clarity peut en effet être équipée d'une prise de courant de 9 kW qui en fait, en pratique, un véritable groupe électrogène ambulant.
Challenges
|
|
|
|
|
|
|
|
La JAXA (Japan Aerospace Exploration Agency) a présenté le 29 mars 2012 un prototype de caméra permettant de visualiser la contamination radioactive avec plus de précision que les équipements existant jusqu'à présent. L'agence spatiale espère que cet outil permettra de contribuer aux efforts de décontamination des zones proches de la centrale nucléaire de Fukushima.
La technologie de cette caméra, appelée "caméra Compton à grand-angle", a été adaptée d'instruments (les capteurs "Soft Gamma-ray Detector" et "Hard X-ray Imager") conçus pour ASTRO-H, un satellite d'astronomie des rayons X que la JAXA développe actuellement et dont le lancement est prévu pour 2014. La caméra Compton à grand-angle permet de détecter sur un large champ visuel (environ 180 degrés) les rayons gamma d'une énergie comprise entre 600keV et 800keV. C'est dans cette plage d'énergie que sont notamment compris les rayons émis par le césium 134 (période radioactive de 2 ans) et par le césium 137 (période radioactive de 30 ans). Les zones contaminées sont représentées à l'image sous forme de tâches de couleur (par exemple rouge pour les concentrations les plus fortes). Cet instrument permet donc d'observer l'emplacement de substances radioactives avec plus de facilité que les méthodes utilisées jusqu'ici, en particulier dans les zones en hauteur difficilement accessibles à une personne équipée d'un radiamètre ou d'un autre outil de mesure.
Des tests de la caméra ont été réalisés en collaboration avec la JAEA (Japan Atomic Energy Agency) et TEPCO (Tokyo Electric Power Co., l'opérateur de la centrale nucléaire de Fukushima) le 11 février 2012 dans le village d'Iitate. Situé à 39km au nord-ouest de la centrale nucléaire de Fukushima, ce village a été évacué suite à sa contamination.
La caméra Compton à grand-angle a été placée dans le coffre d'une voiture et des essais ont été effectués à trois emplacements différents : à l'avant et à l'arrière d'un supermarché, ainsi que sur une route à côté d'un bois. La comparaison des images de la caméra avec les données recueillies par d'autres instruments de mesure a permis de confirmer une précision supérieure aux appareils actuellement utilisés, tels les gamma caméras.
La JAXA, la JAEA et TEPCO étudient désormais la possibilité d'utiliser la caméra Compton à grand-angle pour faciliter les opérations de nettoyage des zones contaminées.
Bulletins Electroniques
|
|
|
|
|
|
|
|
C’est fait ! À Genève, le 5 avril 2012 vers 0 h 38 du matin, l’humanité a réussi à faire entrer en collision des faisceaux stables de protons de 4 TeV. En atteignant donc une énergie de collision de 8 TeV, les chercheurs du Cern entendent bien découvrir avant la fin de l’année si le boson de Higgs standard, entraperçu dans les précédentes collisions au LHC (Large Hadron Collider ou grand collisionneur de hadrons), est bien réel.
On vient d’apprendre que la chasse au boson de Higgs a bel et bien repris au LHC après l’obtention de collisions de faisceaux stables à des énergies record dans les détecteurs CMS et Atlas, ainsi que LHCb et Alice. Des collisions de protons à 8 TeV avaient déjà eu lieu le 30 mars 2012 mais ce n'est que ce 5 avril qu'ont été obtenues des conditions suffisamment stables pour commencer à prendre des données.
Comme l’a déclaré Steve Myers, directeur des accélérateurs et de la technologie du Cern : « Grâce à l’expérience acquise lors des deux années d’exploitation fructueuse à une énergie de 3,5 TeV par faisceau, nous pouvons sereinement relever l’énergie cette année, sans risque majeur pour la machine. C’est à présent au tour des expériences d’exploiter au mieux le nouveau potentiel de découverte que nous leur offrons ! ».
- 8 TeV pour le boson de Higgs et de la nouvelle physique
On se souvient que des problèmes au niveau des connexions des aimants supraconducteurs de la machine avaient conduit à monter beaucoup plus lentement que prévu en énergie et en luminosité afin d’éviter que des accidents se produisent.
Le passage d'une énergie de collision de 7 TeV à 8 TeV peut sembler bien modeste mais, comme l’expliquait Julien Baglio dans un article récent sur le boson de Higgs et ses liens avec les théories de grande unification (GUT) et la supersymétrie, des collisions 8 TeV devraient permettre aux physiciens de savoir si le boson de Higgs standard existe bel et bien en examinant les données collectées pendant l'année 2012.
En tout état de cause, le LHC fera ensuite une longue pause de deux ans pour se préparer à atteindre de nouveaux sommets en énergie et en luminosité des faisceaux, afin de tenter, par exemple, de faire la lumière sur les particules de matière noire.
Pendant ces deux ans, le LHC sera amélioré pour permettre une exploitation à 6,5 TeV par faisceau dès la fin 2014 dans un premier temps. L’objectif final est d'atteindre progressivement l'énergie nominale de 7 TeV par faisceau pour des collisions à 14 TeV, comme il est prévu de longue date.
Il est possible de suivre en direct la chasse au boson de Higgs. Le LHC propose en effet plusieurs sites dédiés aux détecteurs. Il suffit de choisir !
Futura-Sciences
|
|
|
|
|
|
|
|
Poursuivant sa diversification dans les énergies renouvelables (éolien, solaire), Areva indique développer actuellement un concept de centrales compactes et modulaires s'adressant au marché des petits gisements de biomasse. Le Groupe français entend "saisir des opportunités de croissance relativement inexploitées en Europe, en Asie et en Amérique latine." L'objectif d'Areva est d'intégrer différentes solutions innovantes afin d'optimiser le coût des petites centrales et de réduire leur temps de construction. Ce nouveau concept de centrale biomasse vise également à améliorer les technologies en amont afin de permettre l‘utilisation de différents types de combustibles et d'accroître le taux de disponibilité des centrales.
D'autres partenaires se sont déjà engagés sur le projet, notamment SITA, un opérateur industriel majeur spécialiste du traitement et de la valorisation des déchets, ainsi que deux centres de R&D, le CEA et le Karlsruher Institut für Technologie (KIT), en Allemagne. Les bioénergies sont appelées à jouer un rôle important dans la production d'électricité et de chaleur. Elles pourraient représenter jusqu'à 14 % du bouquet énergétique européen en 2020. Le marché mondial des centrales à biomasse devrait se développer au rythme de 6,8 GWe par an jusqu'en 2015, soit près de 1,8 GWe par an sur chacun des marchés cibles d'Areva.
Enerzine
Areva
|
|
|
|
|
|
|
|
Des impulsions très brèves et très puissantes dans le domaine de l'extrême ultra-violet ont été obtenues par une équipe de chercheurs français via l'excitation d'un plasma par laser. Ces travaux constituent une avancée scientifique fondamentale, doublée d'une prouesse technologique. Exciter un plasma pour générer des salves d’impulsions ultrabrèves parfaitement contrôlées : la petite communauté des spécialistes des lasers ultra-rapides en rêvait, une équipe rassemblant des scientifiques du CNRS, de l’Ensta ParisTech, du CEA et de l’Université Pierre et Marie Curie l’a fait. Elle publie ses travaux dans la revue scientifique Nature Physics.
« Ce travail très intéressant s’inscrit dans une tendance actuelle de notre champ de recherche », commente Yann Mairesse, chargé de recherche au Centre Lasers Intenses et Applications de Bordeaux (33). « Pour observer des phénomènes ultra-rapides comme le mouvement des électrons au sein de la matière, on sait déjà produire des rayonnements lumineux extrêmement brefs dans le domaine de l’attoseconde (un milliardième de milliardième de seconde). Pour ce faire, on excite par laser les électrons d’un gaz. Mais depuis quelques années, de nombreuses équipes s’intéressent à une méthode alternative reposant sur l’excitation d’un plasma, un état de la matière extrêmement chaud et dense, constitué d’ions et d’électrons. Ils espèrent ainsi obtenir des rayonnements encore plus brefs et plus intenses ».
Reste que générer un grand nombre d’impulsions ultrabrèves dont les paramètres sont parfaitement contrôlés n’est pas une mince affaire. Aucune équipe n’y était encore arrivée. Pour y parvenir, les chercheurs ont d’abord développé un laser ultra-performant, permettant d’atteindre des éclairements mille à dix mille fois supérieurs à ceux utilisés dans les milieux gazeux et délivrant un millier d’impulsions identiques par seconde. Ils ont ensuite travaillé sur la focalisation de sa puissance, pour qu’elle se concentre sur une zone d’à peine plus d’un micromètre à la surface d’une cible solide, que le laser transforme en plasma au sein duquel les électrons sont fortement accélérés. Lorsqu’ils traversent le plasma, ils excitent au sein de celui-ci des mouvements collectifs de charges, produisant un puissant rayonnement ultra-bref dans le domaine de l’extrême ultra-violet. Une véritable prouesse technologique, qui devrait permettre de mieux comprendre les processus électroniques dans la matière et peut-être même, à long terme, de les maîtriser.
Industrie & Technologies
Nature
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L’Agence de l’environnement et de la maîtrise de l’énergie a présenté un avis sur les carburants d’origine végétale, vendredi 6 avril.
"Un consensus scientifique semble se dégager sur l'existence d'un lien entre le développement accru des biocarburants et le changement d'affectation des sols, avec des conséquences en termes d'émissions de gaz à effet de serre", constate l’Ademe. Certes ils peuvent jouer un rôle non négligeable pour réduire la part des hydrocarbures dans les transports mais leur développement aurait aussi un impact sur le climat. Même si l’ampleur du phénomène n’est pas déterminée. L’Ademe va poursuivre ses travaux afin de mieux la quantifier.
Aujourd’hui, la part des biocarburants représente 6,7 % de la consommation globale de carburant. Compte tenu de l’objectif européen de parvenir à 10 % d’énergie renouvelable en 2020 dans les transports, les biocarburants auront un rôle important à jouer. "Pour développer les véhicules électriques", "une partie importante" de cette part viendra encore des biocarburants à cet horizon, a expliqué Rémi Chabillat, directeur adjoint productions et énergies durables à l'Ademe.
L'Usine Nouvelle
|
|
|
|
|
|
|
|
L'augmentation du CO2 dans l'atmosphère a joué un rôle majeur dans la fin de l'âge de glace, il y a plus de 10.000 ans, affirment des chercheurs, levant une interrogation ancienne sur cette période charnière.
Il y a entre 20.000 ans et 10.000 ans environ, la Terre sortait d’un âge glaciaire pour entrer dans une période plus chaude (époque interglaciaire qui se poursuit aujourd’hui). Qu’est-ce qui a entraîné ce réchauffement ? Si les données paléoclimatiques recueillies sur 800.000 ans montrent que la hausse des températures coïncide généralement avec une hausse de la concentration de CO2 dans l’atmosphère, il n’est pas pour autant toujours évident de faire le lien de cause à effet.
Dans le cas de la fin du dernier âge glaciaire, les données des carottes de glace forées en Antarctique semaient le trouble : la hausse des températures y précède en effet la hausse du CO2. Alors quel fut le rôle de ce gaz à effet serre dans les changements climatiques il y a plus de 10.000 ans ? Le dioxyde de carbone a bien eu un rôle moteur, concluent Jeremy Shakun (Harvard University, Etats-Unis) et ses collègues, à l'issue d'une nouvelle analyse. Ces chercheurs ont combiné les données de dizaines de carottes de forage réalisées partout sur la planète, afin de ne pas faire reposer l’analyse uniquement sur l’évolution du mercure en Antarctique. Il s’agit de forage de glace au Groenland, de sédiments prélevé au fond des océans ou au fond des lacs… 80 carottes au total qui permettent de conclure que l’augmentation de la concentration de CO2 dans l’atmosphère a été le moteur principal du réchauffement, même si ce ne fut pas le facteur déclenchant.
Voilà le scénario décrit par Shakun et ses collègues dans leur article publié dans la revue Nature :
Il y a 20.000 ans, un changement cyclique dans l’axe de rotation de la Terre provoque une augmentation de l’ensoleillement sur l’hémisphère nord et fait fondre les calottes de glace qui recouvraient alors une grande partie de ce qui est aujourd'hui le Canada et l’Europe du nord. Cette eau douce déversée dans l’océan Atlantique freine la circulation océanique qui réchauffe le nord et refroidit le sud (circulation océanique méridienne de retournement Atlantique, ou AMOC). Conséquence : la chaleur s’accumule au sud, les températures montent en Antarctique et l’océan austral commence à relâcher le CO2 stocké en profondeur. Ce dégazage a entraîné un réchauffement planétaire global, expliquent les chercheurs.
«Le CO2 a été un élément majeur de la sortie de l’âge glaciaire et cela a pris environ 10.000 ans» commente Jeremy Shakun. «Maintenant les niveaux de CO2 augmentent de nouveau mais cette fois une hausse équivalente s’est produite en seulement 200 ans, et il est clair que la planète commence à réagir» poursuit le chercheur.
Sciences et Avenir
|
|
|
|
|
|
|
|
Les coraux édificateurs de récifs sont des organismes qui vivent exclusivement dans les eaux tropicales. Très sensibles à la luminosité et la température, ils croissent à fleur d'eau, dans un intervalle de profondeur très restreint, ce qui en fait de bons marqueurs du niveau de la mer. L'étude de ces coraux fossiles, qui se sont formés au cours des dernières centaines de milliers d'années, permet donc de reconstituer les variations du niveau marin et les changements environnementaux passés. Ces archives fournissent ainsi des informations précieuses sur la dynamique et le comportement des calottes de glace du passé. Mieux appréhender cette dynamique permettra d'améliorer à terme la modélisation et la prévision des variations futures du niveau marin.
Dans le cadre d'une campagne de forages internationale effectuée en 2005 sur les pentes des récifs actuels de Tahiti, les chercheurs du Centre européen de recherche et d'enseignement en géosciences de l'environnement (Aix-Marseille Université/CNRS/IRD/Collège de France) ont carotté trois sites situés dans des récifs coralliens, au large de l'île de Tahiti. En datant ces archives, ils ont pu reconstituer les variations du niveau marin sur les derniers 16 000 ans. Ces datations mettent en évidence une remontée extrêmement rapide du niveau de la mer au cours de la dernière déglaciation qui s'est déroulée entre -21 000 et -11 000 environ. Au cours de cette transition entre une dernière période glaciaire et le climat chaud que connaît actuellement la Terre, le niveau marin global est remonté d'environ 120-130 mètres sur presque 15 000 ans. Il était déjà acquis que cette augmentation n'avait pas été constante, mais qu'elle avait été ponctuée par des élévations rapides du niveau marin associées à des débâcles massives des calottes de glace. La plus importante de ces hausses, appelée Melt-Water Pulse 1A (MWP-1A), restait cependant par bien des aspects énigmatique.
Ces nouveaux travaux ont permis de confirmer l'existence de cet événement climatique majeur, tout en révélant pour la première fois son amplitude, sa chronologie et sa durée. Le début du MWP-1A a été daté à 14 650 ans, ce qui fait coïncider cet événement avec le début de la première phase chaude qui marqua la fin de la glaciation dans l'hémisphère Nord. Cette période, appelée Bølling, s'est étalée sur un peu moins de deux mille ans et a vu la température de l'hémisphère Nord augmenter de près de 5°C en quelques années. Selon les chercheurs du CEREGE, la remontée du niveau global des océans au cours du MWP-1A aurait été de presque 14 mètres en seulement 350 ans. La vitesse de la remontée du niveau marin aurait été au minimum de 40 mm/an, vitesse qu'il faut comparer au taux moyen de 10 mm/an estimé pour la dernière déglaciation ou à celui de 3 mm/an observé aujourd'hui par satellite. En s'appuyant sur des simulations de modèles géophysiques, les chercheurs ont aussi établi que la calotte antarctique avait contribué très significativement, probablement pour moitié, au MWP-1A. Ces travaux illustrent l'instabilité des calottes glaciaires, en particulier de la calotte antarctique, à une perturbation climatique majeure et imposent un regard nouveau sur la contribution future de la calotte antarctique à la remontée du niveau des mers dans le contexte actuel de réchauffement climatique.
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le Laboratoire de recherche en neurobiologie cellulaire de l'Université du Québec à Trois-Rivières vient d'établir un lien étonnant entre l'hyperglycémie chez les personnes prédiabétiques ou diabétiques et le développement des maladies neurodégénératives, en particulier la maladie de Parkinson.
Des tests réalisés sur des souris dans le laboratoire dirigé par la professeure Maria-Grazia Martinoli démontrent en effet que l'hyperglycémie (ou taux de sucre sanguin trop élevé), induit la mort de certaines cellules du cerveau responsables de la coordination des mouvements.
Chez la plupart des gens, les excès de glucose consommés dans l'alimentation ne font pas de dégâts dans le cerveau parce que le pancréas sécrète suffisamment d'insuline pour stabiliser le taux de sucre dans l'organisme, explique la chercheuse. Toutefois, la situation est toute autre quand une personne contrôle mal son diabète ou se trouve en situation prédiabétique, dit-elle et que sa glycémie est constamment trop élevée.
Dans un rapport publié en 2010, Diabète Québec et l'Association canadienne du diabète expliquent que le prédiabète «est défini comme l'état d'une personne qui présente une glycémie élevée, mais pas aussi élevée que dans le cas d'un diabète de type 2.» Cette condition peut provenir d'une consommation élevée et fréquente de glucose, comme on en trouve dans les bonbons, biscuits et boissons gazeuses, par exemple, qui fatigue le pancréas, explique la professeure Martinoli.
À la longue survient «un syndrome qui s'appelle la résistance à l'insuline ou le prédiabète», dit-elle. «Le pancréas peut alors sécréter moins d'insuline; il peut sécréter une insuline qui fonctionne moins bien ou bien le récepteur qui doit capter l'insuline dans les muscles ou dans le foie ne veut plus prendre l'insuline. On appelle ça l'insulinorésistence. Cela fait en sorte que la glycémie reste élevée», résume-t-elle. Or, selon la professeure Martinoli, il vaut mieux ne jamais en arriver à ce stade. C'est que le glucose qui se trouve en trop grande quantité dans le sang «gruge littéralement les neurones», dit-elle et le dommage, quand il survient, est irréversible. Les cellules sensibles à ce stress oxydant sont les neurones dopaminergiques qui se trouvent dans la substance noire du mésencéphale. Quand les symptômes de la maladie de Parkinson apparaissent, au moins 60 % des neurones dopaminergiques sont déjà morts, signale la chercheuse.
Bonne nouvelle, toutefois, il est possible de prévenir ce grave problème. Dans le laboratoire de recherche en neurobiologie cellulaire que dirige Maria-Grazia Martinoli, un groupe de petites souris à qui ont été administrées de hautes doses de glucose a aussi reçu des doses physiologiques de quercétine et de sésamine. La quercétine est présente naturellement dans de nombreux végétaux, notamment les oignons, la pelure des pommes et le thé vert tandis que la sésamine se trouve dans les petites graines de sésame qui donnent bon goût au pain.
L'équipe du Laboratoire de recherche en neurobiologie cellulaire de l'UQTR a eu la bonne surprise de constater que ces substances ont offert une protection d'environ 20 % face au stress oxydant du glucose sur les neurones. «Ce n'est pas beaucoup, mais il faut dire que le stress était fort durant l'expérience», signale la professeure Martinoli. En revanche, elles ont offert une protection presque complète contre le stress nitrosant (les radicaux libres nitrites et nitrates induits aussi par un taux élevé de glucose), rapporte-t-elle.
Toutes les personnes dont la glycémie dépasse la limite supérieure normale pendant un temps ne développeront pas nécessairement la maladie de Parkinson, précise-t-elle. Le corps contient en effet des enzymes antioxydantes, comme la superoxyde dismutase, la catalase et la glutation peroxydase, qui protègent le cerveau. «Mais un taux élevé de glucose abaisse les défenses de ces antioxydants», prévient la chercheuse. De plus, en vieillissant, la présence de ces enzymes bénéfiques diminue.
«Vieillir, c'est s'oxyder», rappelle-t-elle. L'important, dit-elle, c'est de s'assurer que la glycémie soit en tout temps normale. La professeure Martinoli estime qu'il vaut mieux éviter la consommation de sucre, notamment dans les boissons gazeuses et autres produits extrêmement sucrés. «Il n'y a aucune raison non plus de manger un dessert à la fin de chaque repas, chaque jour», plaide-t-elle. «Dans le bon vieux temps, on ne mangeait du dessert que le dimanche.»
Actuellement, «les chiffres du diabète ont presque doublé au cours de la décennie écoulée et vont continuer à progresser. Si rien n'est fait, une personne sur trois sera diabétique ou prédiabétique d'ici la fin de cette décennie». prévient le rapport de Diabète Québec.
Cyberpresse
|
|
|
|
|
|
|
|
Les footballeurs de haut niveau ont des capacités cognitives (une composante de l’intelligence) supérieures aux joueurs amateurs et au reste de la population : plus créatifs, dotés d’une meilleure mémoire de travail ou encore mieux à même de changer de décision en une fraction de seconde. Les recruteurs pourraient désormais soumettre les futures pépites à des tests cognitifs. Pour atteindre les sommets dans le sport, il faut donc plus que du physique et du mental !
La réussite sportive au plus haut niveau passe inéluctablement par des qualités physiques hors normes, que ce soit en vitesse, en souplesse, en force, en agilité ou bien en endurance. Il faut aussi savoir se faire mal et pousser son corps jusque dans ses derniers retranchements, ce qui implique un mental d’acier. Mais cela ne suffit pas encore. Pour atteindre les sommets, il faut aussi être doté de facultés cognitives supérieures.
C’est la conclusion que vient d’apporter une étude menée par des chercheurs du Karolinska Institutet (Stockholm). Si la recherche s’intéresse au rôle de la psychologie depuis les années 1920, et que ces dernières décennies les travaux scientifiques se sont succédé, la plupart d’entre eux se focalisaient sur quelques-unes des aptitudes cognitives propres à une discipline, mais pas sur la cognition d’un point de vue plus général. Une erreur réparée par les chercheurs suédois, qui publient leurs résultats dans Plos One.
- Des footballeurs avec de meilleures fonctions exécutives
Dans un premier temps, 57 footballeurs des deux sexes et de différents niveaux passaient des tests visant à évaluer leurs fonctions exécutives. Ce terme générique regroupe différents processus mentaux de la cognition, jaugeant de la capacité à produire un comportement adapté à une situation, le plus souvent non courante. Dans cette étude, ont principalement été évaluées la créativité, la mémoire de travail, la capacité à faire plusieurs choses en même temps (multitâche) et la flexibilité.
Parmi les sujets, 29 jouaient dans les meilleures équipes suédoises (15 hommes et 14 femmes), les 28 restants pratiquant à un niveau inférieur (17 hommes et 11 femmes). Leurs résultats ont été comparés à ceux retrouvés pour le reste de la population. Les footballeurs de l’élite obtenaient les meilleurs scores, que seuls 5 % des individus parviennent à atteindre. Les joueurs amateurs ont réalisé des performances inférieures, mais elles restent toujours plus élevées que celles de la population non pratiquante.
- Cognition et performance footballistique : un lien établi
Le travail ne s’arrête pas là. Les chercheurs ont voulu établir s’il y avait un lien entre la réussite aux tests cognitifs et les résultats sportifs. Et la corrélation semble exister : les footballeurs avec les meilleures aptitudes cognitives étaient également ceux qui marquaient le plus de buts ou délivraient beaucoup de passes décisives.
Ce dernier critère manque cependant de pertinence, comme le concèdent les auteurs qui justifient leur choix en précisant que ces données étaient très faciles à obtenir et indiscutables. Mais au football, certains joueurs sont plus disposés que d’autres à jouer l’attaque en fonction de leur position sur le terrain et de leur rôle.
Un point reste encore à éclaircir. Ces facultés intellectuelles sont-elles innées ou ont-elles été acquises à force de pratique et d’expérience ? Cette étude ne permet pas d’y répondre. Cependant, les chercheurs pensent que les recruteurs devraient intégrer dans les tests de détections des épreuves supplémentaires, visant à évaluer la psychologie du jeune joueur. Car ce n’est pas tout de courir vite et de sauter haut, il faut aussi savoir analyser au plus vite la situation. Et cela passe par le cerveau.
Futura-Sciences
|
|
|
|
|
|
|
|
Une femme sur huit recevra un diagnostic de cancer du sein au cours de sa vie. Un dépistage précoce permet d’augmenter les chances de réussite du traitement et de prolonger la survie à long terme. Toutefois, le dépistage du cancer du sein à un stade précoce qui se fait par mammographie demeure inconvénient, coûteux et imprécis. En effet, ces tests font appel à des appareils encombrants et coûteux, requièrent du personnel hautement qualifié et en outre, chez de nombreuses femmes, les tumeurs ne peuvent être décelées qu’à un stade avancé. Une équipe du Département de génie biomédical de la Faculté de médecine de l’Université McGill a mis au point une puce microfluidique qui pourrait un jour changer radicalement le mode de dépistage du cancer et le moment du diagnostic. Les travaux de ces chercheurs font l’objet d’un article publié dans le numéro d’avril de la revue scientifique Molecular & Cellular Proteomics.
Les scientifiques s’efforcent depuis des années de mettre au point un test sanguin de dépistage du cancer reposant sur la détection de l’antigène carcino-embryonnaire, un biomarqueur protéique du cancer isolé il y a plus de 40 ans par le Docteur Phil Gold, de l’Université McGill. Toutefois, ce biomarqueur peut également être décelé chez les personnes en santé, et son taux varie en fonction du bagage génétique et des habitudes de vie. C’est pourquoi les chercheurs n’ont pu établir de valeur seuil permettant de distinguer les personnes saines des personnes porteuses d’un cancer.
«Les scientifiques ont tenté à maintes reprises de surmonter le problème de la variabilité interindividuelle en cherchant notamment à dresser le "portrait" moléculaire d’une personne. Pour ce faire, ils ont mesuré le taux sanguin de multiples protéines et cerné les signatures moléculaires qui, ensemble, constituent les "empreintes digitales du cancer", explique le professeur David Juncker, chercheur principal de l’équipe. Ils n’ont toutefois pu établir un ensemble de biomarqueurs fiable, et aucun test sanguin de dépistage du cancer n’a encore été mis au point. Notre objectif est de surmonter ces obstacles.»
Le chercheur Mateu Pla-Roca, auteur principal de l’étude, ainsi que des membres de l’équipe du professeur Juncker, ont entrepris d’analyser les technologies les plus couramment utilisées pour mesurer le taux de multiples protéines sanguines afin de concevoir un modèle qui en décrirait les faiblesses et les lacunes. Ils ont ainsi découvert les raisons pour lesquelles le nombre de cibles protéiques mesurables simultanément était limité, et pourquoi il était si difficile d’améliorer l’exactitude et la reproductibilité de ces tests. Forts d’une meilleure compréhension de ces facteurs limitants, ils ont mis au point une technologie novatrice reposant sur une puce microfluidique permettant de surmonter ces obstacles. Cette approche leur a permis de mesurer autant de biomarqueurs protéiques qu’ils le voulaient, tout en réduisant au minimum le risque d’obtenir des résultats erronés.
Les chercheurs du groupe de génie biomédical du professeur Juncker, en collaboration avec les équipes d’oncologie et de bio-informatique du Centre de recherche sur le cancer Goodman de l’Université McGill, ont ensuite établi le profil de 32 protéines sanguines chez 11 témoins en santé et 17 personnes présentant un type particulier de cancer du sein (tumeurs présentant des récepteurs d’œstrogène). Ils ont découvert qu’un sous-groupe composé de 6 de ces 32 protéines pouvait servir à l’établissement de l’empreinte de ce type de cancer et permettre ainsi de classer les patients et les témoins selon l’absence ou la présence d’un cancer du sein. «Bien que l’on doive refaire cette étude avec d’autres marqueurs auprès d’une population plus diversifiée de patients et cibler d’autres sous-groupes de cancers avant qu’un tel test puisse servir à des fins de diagnostic clinique, ces résultats mettent néanmoins en lumière les possibilités incroyables offertes par cette nouvelle technologie», se réjouit le professeur Junker.
Le professeur Juncker et ses collaborateurs se sont fixé comme objectif de concevoir un test de dépistage simple, qui puisse être réalisé dans le cabinet du médecin au moyen d’une goutte de sang, ce qui permettrait de réduire le recours aux mammographies, l’exposition du personnel médical aux rayons X, les malaises physiques et les coûts. Son laboratoire travaille actuellement à mettre au point une version portative du dispositif et à augmenter la sensibilité du test afin qu’il puisse être utilisé pour dépister avec exactitude le cancer du sein et, à terme, de nombreuses autres maladies, et ce, au stade le plus précoce possible.
Techno-Science
MCP
|
|
|
|
|
|
|
|
Difficile à diagnostiquer jusqu’à des stades avancés, l’adénocarcinome pancréatique est de très mauvais pronostic, avec un taux global de survie à 5 ans proche de 5 %. Il passe de 10 à 30 % en cas de tumeur opérable lors du diagnostic. En France, on estimait en 2010 à 10 140 le nombre de nouveaux cas avec une mortalité équivalente la même année. Il existe un besoin réel de disposer de meilleurs biomarqueurs de ce cancer et d’identifier de nouvelles cibles thérapeutique, en particulier pour la forme métastatique qui concerne la moitié des patients environ.
On observe dans 90 % des tumeurs des mutations de l’oncogène KRAS qui apparaissent au stade précoce des néoplasies pancréatiques intra-épithéliales (PanIN), et d’autres mutations inactivantes, de P16/CDKN2A, TP53, et SMAD4, sont fréquentes à un stade plus avancé. Elles seraient requises pour la progression tumorale vers l'adénocarcinome invasif.
La caractérisation génétique des cancers pancréatiques est difficile du fait de leur génome particulièrement instable. En combinaison avec le modèle, déjà existant, de cancer pancréatique murin obtenu par mutation de KRAS seul ou combiné à des allèles d’autres gènes connus pour favoriser le cancer humain, une équipe internationale a recours à une technique de mutagenèse insertionnelle qui utilise le transposon Sleeping beauty, un transporteur non viral pour intégrer des séquences génétiques dans l'ADN.
Les souris obtenues présentent tous les stades des lésions PanIN. La latence de la tumorogenèse est diminuée et la sévérité ainsi que la multiplicité des adénocarcinomes canalaires du pancréas sont augmentées ; 543 gènes candidats sont identifiés à partir des sites d’insertion les plus fréquents, les plus susceptibles de contenir un gène lié au cancer du pancréas.
Pour établir si les résultats obtenus chez la souris ont un impact significatif pour le cancer pancréatique chez l’homme, les chercheurs utilisent deux vastes bases de données d’expression génique, puis deux cohortes de patients. Ils observent que 75 des gènes candidats précédents sont connus pour être mutés ou supprimés dans le cancer pancréatique chez l’homme, parmi lesquels 20 sont significativement associés à la survie des patients. Onze autres n’avaient jamais été mis en évidence. D’après la fréquence élevée des mutations, un grand nombre de ces gènes aurait un rôle dans l’initiation, la progression ou le processus métastatique de l’adénocarcinome pancréatique humain.
Ces travaux viennent enrichir les données déjà existantes sur les gènes du cancer du pancréas. Le gène muté le plus significatif est le gène suppresseur de tumeur PTEN, inactivé dans un certain nombre de cancers, mais jamais identifié jusqu’à ce jour comme jouant un rôle dans le cancer du pancréas. Les auteurs soulignent que 10 % des gènes pancréatiques mis en évidence ont un rôle dans le remodelage de la chromatine, et 100 % des tumeurs sont le siège d’une mutation d’au moins un de ces gènes.
JIM
|
|
|
|
|
|
|
|
Les vaccins contre les papillomavirus ont montré leur efficacité pour la prévention des néoplasies cervicales intra-épithéliales de grade II-III et des carcinomes in situ chez les jeunes femmes non infectées avant la vaccination. Le vaccin quadrivalent prévient aussi les néoplasies intra-épithéliales vulvaires ou vaginales de grade II-III, les verrues génitales chez les femmes et les hommes et les lésions anales de haut grade chez les hommes. En revanche, le vaccin ne réduit pas la progression des lésions pré-cancéreuses qui seraient présentes et méconnues au moment de la vaccination. Il est toutefois légitime de se demander s’il peut prévenir les récurrences des lésions traitées après la vaccination.
C’est justement l’objectif de cette analyse rétrospective, réalisée à partir des données des études FUTURE I et FUTURE II qui avaient enrôlé 17 622 patientes âgées de 15 à 26 ans, randomisées pour recevoir une vaccination anti-HPV par le quadrivalent ou un placebo. Les données sont issues d’un suivi de 4 ans. La vaccination était faite sans frottis préalable et certaines patientes pouvaient donc être porteuses de lésions virales au moment où elle avait lieu.
Au total, des anomalies cervicales nécessitant une intervention chirurgicale ont été prises en charge, après la vaccination, chez 587 patientes vaccinées et 763 du groupe placebo. Après le traitement, les récurrences de tout type de lésion due au HPV ont été moitié moins fréquentes à 60 jours chez les femmes vaccinées (réduction de 46,2 %). Surtout la vaccination a réduit de 64,9 % le risque de récurrence de pathologie cervicale de haut grade.
Des verrues génitales, néoplasies intraépithéliales vaginales ou vulvaires ont été dépistées après la vaccination chez 229 patientes vaccinées et 475 du groupe placebo. Pour ce type de lésions, les récurrences ont été elles aussi significativement plus rares après le traitement, de 35,2 %, dans le groupe vacciné. Il est certain que seules des études sur le long cours permettront de tirer des conclusions définitives sur les effets non prévus de la vaccination anti-HPV et de nombreux travaux sont actuellement en cours, évaluant à la fois la sécurité et l’efficacité de la vaccination.
JIM
|
|
|
|
|
|
|
|
La metformine, un médicament largement utilisé pour traiter le diabète de type II, pourrait contribuer aussi à prévenir le cancer primitif du foie ou carcinome hépatocellulaire, chez les patients atteints de diabète de type II, selon ces chercheurs de l'Université du Maryland et du Marlene Stewart Greenebaum Cancer Center. Ces résultats ajoutent aux propriétés diverses déjà suggérées de la metformine, en particulier à son caractère préventif pour le cancer du poumon et la maladie d’Alzheimer. Des conclusions prometteuses, pour parvenir à réduire le développement de ce type de tumeurs mortelles en forte hausse, publiées dans Cancer Prevention Research la revue de l'American Association for Cancer Research.
Les patients atteints de diabète de type II ont un risque de 2 à 3 fois supérieur de développer un cancer primitif du foie. Au-delà, sont également à risque accru, les personnes souffrant d’obésité, d'hépatite ou de stéatose hépatique non alcoolique. La metformine est fréquemment prescrite pour traiter la stéatose hépatique non alcoolique, le diabète, et est actuellement étudiée dans le cadre de la prévention d'une variété de cancers. Cette étude pré-clinique est la première à se concentrer sur l’effet de la metformine sur le cancer du foie et le carcinome hépatocellulaire, une forme souvent mortelle de cancer.
Les auteurs rappellent que le glucose est converti en acides gras dans le foie par un processus appelé la lipogenèse. Ce processus est accru chez les personnes qui souffrent de diabète, d'hépatite, de stéatose hépatique, ainsi que de cancer. Lorsque que l’on bloque ce processus, on empêche les cellules de fabriquer les « blocs » leur permettant de proliférer.
La metformine montre sa faculté d’inhiber la synthèse de certains acides gras et la capacité des cellules cancéreuses à se reproduire : «Notre recherche démontre, sur l’animal, que la metformine prévient le cancer primitif du foie. Les souris traitées par metformine présentent des tumeurs significativement plus petites et moins nombreuses que les souris qui n'en ont pas reçu» résume l'auteur principal de l'étude, le Professeur Geoffrey D. Girnun, professeur adjoint de biochimie et de biologie moléculaire à l'Université du Maryland. Dans l'étude, les chercheurs constatent que les souris traitées avec la metformine présentent 57 % de tumeurs du foie en moins que les souris non traitées, et la taille des tumeurs est réduite de 37 %. « Sur la base de ces résultats, nous pensons que la metformine devrait être évaluée comme un agent préventif chez les personnes à risque élevé. De nombreux patients atteints de diabète sont déjà pris ce médicament, avec peu d'effets secondaires ».
Plusieurs études épidémiologiques rétrospectives ont déjà associé la metformine avec un risque réduit de cancer du foie, mais cette étude est la première à tester formellement le pouvoir protecteur de la metformine contre la cancérogenèse, et pas seulement contre la croissance tumorale et le développement de la tumeur, mais sur la formation des tumeurs chez le foie. Le chercheur se dit à la recherche de financement pour lancer un essai clinique pour confirmer ces effets anti-cancer chez les patients atteints de diabète de type II.
Le Professeur E. Albert Reece, vice-président des affaires médicales à l'Université du Maryland, ajoute : «Le carcinome hépatocellulaire représente une menace grave pour la santé publique dans le monde entier. Avec l'augmentation alarmante de l'obésité, du diabète de type II et de l'hépatite B et C, un nombre de plus en plus élevé de personnes sera à risque de développer ce cancer. Nous avons non seulement besoin de trouver des traitements plus efficaces, mais nous devons aussi trouver des moyens pour prévenir ce type de tumeur. Cette étude est une excellente première étape qui peut permettre de parvenir à prévenir le cancer du foie chez les populations à risque ».
Santé Log
|
|
|
|
|
|
|
|
L'annonce d'un diagnostic de cancer est corrélée à un taux immédiatement plus élevé de risque de suicide et de mortalité cardiovasculaire, selon une étude suédoise publiée dans la revue New England Journal of Medicine.
- Le diagnostic lui-même augmente le risque de suicide
On se doute que se faire diagnostiquer une maladie potentiellement mortelle telle qu'un cancer provoque un grand stress qui peut, à son tour, engendrer des problèmes de santé venant se surajouter à la maladie initiale. D'ailleurs, plusieurs études ont montré que les patients atteints d'un cancer présentent un risque plus élevé de suicide et de maladie cardiovasculaire ; mais jusqu'à présent, ce sur-risque était attribué à la charge émotionnelle engendrée par le fait d'être atteint d'une maladie potentiellement mortelle et à la lourdeur des traitements anticancéreux.
Or, de nouvelles données issues de patients atteints d'un cancer de la prostate suggèrent que le fait d'être diagnostiqué avec un cancer suffit, à lui seul, à augmenter le risque de maladies liées au stress et de mortalité associée.
Dans les travaux publiés dans le New England Journal of Medicine, les chercheurs du Karolinska Institutet, de l'université d'Örebro et de l'Université d'Islande ont examiné les registres sanitaires de plus de 6 millions de Suédois entre 1991 et 2006, et plus particulièrement les données des 500 000 personnes ayant un diagnostic de cancer au cours de cette période, pour voir si les risques de suicide et de mortalité cardiovasculaire augmentaient immédiatement après un diagnostic de cancer. Au total, une très faible proportion de patients ont mis fin à leurs jours juste après que le médecin leur a annoncé un cancer, indiquent les chercheurs. Pour autant, le risque de suicide au cours de la première semaine suivant l'annonce du diagnostic était 12 fois plus élevé que chez les gens qui n'avaient pas de cancer, soulignent-ils.
- Une mortalité cardiovasculaire 6 fois plus élevée
De même, le risque de mortalité cardiovasculaire était 6 fois plus élevé au cours de la 1ère semaine suivant l'annonce et encore 3 fois plus élevé au cours du 1er mois. Ces deux risques (suicide et mortalité cardiovasculaire) diminuaient ensuite rapidement au cours de la 1ère année suivant l'annonce du cancer. De façon peu surprenante, les sur-risques étaient plus élevés lorsque le pronostic associé au cancer était mauvais.
Pour les auteurs de l'étude, le fait que l'élévation des risques de suicide et de mortalité cardiovasculaire apparaissait directement après le diagnostic de cancer puis diminuait avec le temps constitue un argument favorable à l'hypothèse selon laquelle c'est l'annonce du diagnostic, et non la souffrance émotionnelle et physique liée à l'évolution du cancer ou à ses traitements, qui en est la cause.
- Améliorer les conditions de l'annonce du diagnostic
"On peut considérer le suicide et la mortalité cardiovasculaire comme des manifestations du stress extrême induit par le diagnostic de cancer. Les résultats de notre étude indiquent que la détresse engendrée par l'annonce du diagnostic de cancer peut provoquer des risques sérieux et immédiats au niveau physique et psychologique", comment le Docteur Fang Fang, qui a dirigé l'étude. Elle souhaite que ce nouvel éclairage soit pris en considération par les proches et les professionnels de santé, et invite ces derniers à améliorer les conditions d'annonce d'une maladie grave.
Doctissimo
|
|
|
|
|
|
|
|
Une équipe de chercheurs américains et anglais a récemment démontré que les personnes qui détiennent une variante particulière d’un gène appelé IFITM3 sont plus susceptibles de se faire hospitaliser lorsqu´elles contractent la grippe que celles portant d’autres variantes.Ce gène joue un rôle essentiel dans la protection du corps contre l’infection de la grippe et une rare version de ce gène semble rendre les gens plus sensibles à des formes sévères de la maladie.
Le gène IFITM3 est une protéine importante qui protège les cellules contre l’infection du virus et les chercheurs pensent qu´elle pourrait jouer un rôle crucial dans la réponse du système immunitaire contre les virus tels que la grippe pandémique H1N1, communément appelée « grippe porcine ». Lorsque la protéine est présente en grandes quantités dans les poumons, la propagation du virus est empêchée, mais si la protéine est défectueuse ou absente, le virus peut se propager plus facilement, ce qui peut provoquer une grave maladie.
« Bien que cette protéine soit extrêmement importante dans la limitation de la propagation du virus dans les cellules, on en sait peu sur la façon dont elle fonctionne dans les poumons », explique Aaron Everitt, auteur de l´étude et chercheur à l’Institut Wellcome Trust Sanger. « Notre recherche joue un rôle fondamental dans l’explication de la façon dont le gène et la protéine sont liés à la sensibilité virale ».
Le rôle antiviral de l´IFITM3 chez l’homme a d’abord été suggéré par des études utilisant un criblage génétique, qui ont montré que la protéine avait bloqué la croissance du virus de la grippe et du virus de la dengue dans les cellules. Cela a conduit l’équipe de chercheurs à se demander si l´IFITM3 protégeait les souris contre les infections virales. Ils ont enlevé le gène IFITM3 chez des souris et ont constaté qu’une fois la grippe contractée, les symptômes étaient beaucoup plus sévères. En effet, ils ont trouvé que la perte de ce gène chez la souris pouvait transformer un cas bénin de grippe en une infection mortelle.
Répandre
|
|
|
|
|
|
|
|
Ce nouveau médicament, le trastuzumab emtansine (T-DM1), combinaison d’un anticorps et d’un agent de chimiothérapie, a été conçu de manière à délivrer l’agent chimiothérapique directement à l’intérieur des cellules cancéreuses. Si les résultats finaux de cette étude EMILA de phase III ne sont pas encore matures, le laboratoire Roche communique néanmoins au 30 mars sur la capacité de son trastuzumab emtansine (T-DM1) à prolonger la survie sans progression chez les patientes atteintes de cancer du sein métastatique HER2-positif.
L’étude EMILIA, première étude randomisée de phase III sur le trastuzumab emtansine (T-DM1), montre que le trastuzumab emtansine prolonge significativement la survie sans progression des femmes souffrant de cancer du sein métastatique HER2-positif ayant déjà reçu un traitement par Herceptin et un taxane (chimiothérapie). Elle montre que les femmes traitées par le trastuzumab emtansine « ont vécu significativement plus longtemps sans aggravation de la maladie » vs les femmes traitées par lapatinib plus Xeloda (capécitabine). Le profil d’innocuité du trastuzumab emtansine s’est avéré correspondre à ceux observés lors de précédentes études.
Le trastuzumab emtansine est un produit expérimental connu sous le nom de conjugué anticorps-médicament (antibody-drug conjugate = ADC), composé du trastuzumab (anticorps) et du DM1 (agent de chimiothérapique) unis l’un à l’autre par un ligand stable, conçu pour cibler et inhiber la voie de signalisation de HER2 et délivrer l’agent chimiothérapique DM1 directement à l’intérieur des cellules cancéreuses HER2-positives.
“ (…) le trastuzumab emtansine est notre premier conjugué anticorps-médicament et il pourrait venir en aide aux personnes en attente de nouvelles options thérapeutiques contre cette maladie agressive. Nous allons tout mettre en œuvre pour que ces résultats soient présentés aux autorités réglementaires le plus vite possible », a précisé le Docteur Hal Barron, Chief Medical Officer et responsable de Global Product Development du laboratoire Roche. Roche prévoit en effet de déposer dès cette année auprès de l’Agence européenne des médicaments (EMA) une demande d’autorisation de mise sur le marché (AMM) et Genentech de même, à la U.S. Food and Drug Administration (FDA) pour le marché américain.
Santé Log
|
|
|
|
|
|
|
|
D’après une étude publiée dans la revue Science Translational Medicine, des chercheurs américains auraient créé une molécule synthétique capable d’inhiber l’invasion des tissus sains du cerveau par des cellules cancéreuses. Ce composé, utilisé en traitement pré-chimiothérapie, permet de soigner les rats atteints d’un glioblastome et d’augmenter considérablement leur espérance de vie.
En étudiant les différentes molécules ayant des propriétés anticancéreuses, Jack Arbiser et ses collègues du service de dermatologie de l’université Emory (Atlanta, Etats-Unis) ont décidé de synthétiser un composé chimique ayant les caractéristiques d’un colorant triphénylméthane, le violet de gentiane, et utilisant comme base l’imipramine, un médicament utilisé pour traiter la dépression qui passe au travers de la barrière hématoencéphalique et pénètre dans le cerveau. Ils ont ainsi créé le bleu d’imipramine (IB).
Les premières expériences, menées in vitro, ont montré que cette nouvelle molécule inhibait l’invasion de plusieurs lignées cellulaires humaines et murines du gliome. Forts de ces premiers résultats, les chercheurs ont décidé de tester sur des rats génétiquement modifiés pour développer un glioblastome - tumeur particulièrement agressive du cerveau, proche de celui qui touche l’homme, un cocktail médicamenteux qui associe bleu d’imipramine et chimiothérapie. Très vite, ils ont constaté que l’IB empêche le gliome d’envahir le cerveau. La tumeur, devenue plus compacte faute de pouvoir croître, est une cible plus facile pour la chimiothérapie. A 200 jours, l’ensemble des rats traités ont survécu, contrairement aux rongeurs témoins uniquement soignés par chimiothérapie, dont seulement 33 % étaient toujours en vie.
Particulièrement encourageants ces résultats ouvrent la voie à de nouvelles perspectives thérapeutiques. Des essais cliniques sur l’homme sont d’ores et déjà envisagés.
Information Hospitalière
|
|
|
|
|
|
|
|
Cinq centres dans le monde vont tester, sur l'homme, un nouveau protocole contre le cancer du lymphome. Parmi eux, le service d'hématologie du CHU de Rennes. Les résultats des essais déjà menés sur des souris sont spectaculaires. « Avec ce nouveau traitement, les tumeurs cancéreuses des souris commencent à disparaître complètement au bout de quinze jours. Alors que sans ce traitement, elles doublent de taille, explique le professeur Roch Rouot, 38 ans, hématologue dans le service d'hématologie au CHU de Rennes. Et la où les souris mourraient moins de 60 jours après l'inoculation des cellules cancéreuses, elles survivent. »
De quoi laisser entrevoir de nouvelles perspectives, même si le professeur Rouot se montre très prudent. Le cancer du lymphome, connu également sous le nom de cancer des ganglions, touche 12 000 personnes par an en France. C'est la sixième cause de cancer. « Il peut exister de très grosses différences entre les essais sur les animaux et sur l'homme. C'est justement ce que nous allons vérifier en débutant ces tests. » Le service d'hématologie du CHU de Rennes sera, début avril, l'un des cinq centres au monde à expérimenter ce traitement. Les quatre autres se trouvent tous aux États-Unis. Des essais financés par le géant pharmaceutique Pfizer.
Si Rennes a été choisi, ce n'est pas un hasard, comme l'explique le professeur Roch Rouot : « Après avoir été chef de clinique au centre hospitalier de Lyon sud, où j'ai travaillé avec le professeur Bertrand Coiffier, un pionnier dans l'utilisation des anticorps dans la chimiothérapie, je suis parti faire de la recherche au laboratoire de Stanford, aux États-Unis, pendant trois ans. » Là, il travaille avec le professeur Ronald Levy, un oncologue de renommée mondiale qui a également été précurseur dans le rôle des anticorps dans la lutte contre le cancer. « J'ai alors eu une approche différente en développant des anticorps qui ne ciblent pas directement les cellules cancéreuses mais les cellules immunitaires de notre organisme. En résumé, les rendre plus fortes et plus puissantes pour lutter contre le cancer », poursuit-il.
Ces travaux ont été publiés et ont attiré l'attention du géant pharmaceutique Pfizer : « L'idée est donc d'associer des anticorps qui attaquent directement les cellules cancéreuses avec d'autres boostant les défenses de l'organisme. » Rentré en France, le professeur Roch Rouot a rejoint, en 2009, le service d'hématologie clinique du CHU dirigé par le professeur Thierry Lamy de la Chapelle. « Nous allons entamer le test par ce qu'on appelle la phase 1 sur une douzaine de personnes atteintes de lymphomes. Elle durera environ un an. » Un protocole très long et très rigoureux : « On ne sait pas à quoi s'attendre mais on espère, d'ici à cinq ans, peut-être proposer un nouveau traitement efficace. »
Redon
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Californie ont découvert des biomarqueurs dans le plasma permettant de prédire la survenue de la maladie d’Alzheimer (MA) et la démence. Alors que selon les différentes lignes directrices, l’identification de la démence est basée sur l’analyse des protéines du liquide céphalo-rachidien et la neuro-imagerie, un biomarqueur sanguin comme le taux plasmatique de peptides β-amyloïde (Aß) serait une technique de détection moins invasive et plus rentable. Les résultats de cette méta-analyse, publiée dans l’édition du 26 mars des Archives of Neurology confirme la promesse des niveaux plasmatiques de β-amyloïde comme un biomarqueur préclinique possible.
Les auteurs du département de psychiatrie de l’Université de Californie et du département d’épidémiologie de la Harvard School of Public Health et d’autres institutions de santé américaines rappellent le fardeau grandissant de la maladie d’Alzheimer, le peu d’efficacité des traitements disponibles et l’absence de thérapie efficace, à ce jour, pour modifier le processus pathologique. Par ailleurs, si de nouveaux traitements venaient à être développés, il est largement admis qu’ils devraient être administrés au stade préclinique de la maladie, avant que les patients soient atteints de démence complète. La prédiction préclinique et en première étape de la démence par le biais de biomarqueurs pratiques, non invasifs et peu coûteux est donc un enjeu évident pour la prise en charge de la MA.
Les taux plasmatiques de peptides β-amyloïde (Aß) ont été beaucoup étudiés mais par des études de conception, avec des méthodes de dosage et des tailles d’échantillon très différentes. Ces auteurs ont donc effectué une revue systématique et une méta-analyse de la littérature scientifique, publiée entre 1995 et 2011, pour valider que les niveaux plasmatiques de Aß pourraient être un biomarqueur prédicteur de survenue de la démence, dont la MA ou un déclin cognitif. Les chercheurs ont développé un modèle pour générer des résultats consolidés, avec des intervalles de confiance à 95 %.
Un ratio de 2 peptides β-amyloïde associé à un risque accru de 60 % de MA : 13 études portant sur un total de 10.303 participants ont été sélectionnées. De faibles niveaux de ratios de 2 peptides β-amyloïde (Aß42: Aß40) s’avèrent significativement associés avec le développement de la MA (RR : 1,60; IC : 95%, de 1,04 à 2,46) et à la démence (RR : 1,67; IC : 95%, de 1,02 à 2,75) alors que les concentrations plasmatiques de Aß40 et Aß42 seuls ne s’avèrent pas significativement associées à des résultats spécifiques. C’est un premier pas vers l’utilisation pré-clinique de ces biomarqueurs, concluent les auteurs, cependant l’hétérogénéité des données dans la méta-analyse souligne la nécessité de poursuivre la recherche.
Medscape
Neurology
|
|
|
|
|
|
|
|
Les progrès de la génétique moléculaire depuis 20 ans ont modifié de fond en comble notre compréhension des mécanismes de la transformation des cellules cancéreuses et de la progression tumorale. La découverte dans le génome des cellules tumorales de mutations ou d'activations anormales de gènes clés gouvernant les mécanismes et le contrôle de la prolifération des cellules normales a fait émerger les concepts d'oncogènes et de gènes suppresseurs de tumeurs. L'analyse de la structure et des fonctions de ces gènes mutés dans les cellules cancéreuses a conduit au développement de nouveaux médicaments ciblés, dont l'action spécifique n'est plus de tuer toutes les cellules de l'organisme se divisant rapidement, sans reconnaitre clairement les cellules cancéreuses, comme le font les agents de la chimiothérapie conventionnelle, mais bien d'inhiber spécifiquement telle ou telle fonction de la protéine produite par les gènes anormaux présents dans les cellules cancéreuses.
On a pu dire que ces agents ciblés étaient, par leur spécificité d'action, les premiers médicaments 'intelligents' du cancer, comme les antibiotiques ont été il y a 60 ans les premiers traitements 'intelligents' des maladies infectieuses. Une dizaine de médicaments de ce type sont déjà sur le marché et ont montré une activité remarquable dans des types tumoraux parfois jusqu'ici pratiquement résistants à toutes les thérapeutiques conventionnelles. Cependant, ils ne sont efficaces que dans un nombre très limité de cas, car ils n'agissent précisément que chez les malades dont la tumeur présente bien l'anomalie génétique ciblée par le médicament. Une centaine de médicaments du même type sont actuellement en cours de procédure d'enregistrement aux USA ou en Europe, et plus de 800 nouvelles molécules sont aux stades de développement pré-clinique dans les 'pipe-lines' des grands laboratoires pharmaceutiques, qui font de cette nouvelle voie de recherche un axe de développement stratégique majeur pour les toutes prochaines années.
Actuellement cependant, le développement de ce type de médicaments est difficile, long et très coûteux, en raison de l'absence de possibilités de séquençage et d'analyse moléculaire fine des tumeurs en dehors de quelques grands Instituts de recherche. Ces médicaments sont donc en règle générale développés à l'aveugle, dans des populations de malades non sélectionnés et après échec des traitements conventionnels, ce qui rend malaisé et aléatoire la mise en évidence d'une activité thérapeutique chez un petit nombre de malades. Ces considérations économiques conduiront vraisemblablement les firmes pharmaceutiques à modifier leurs stratégies et à développer prioritairement ces nouveaux produits dans des environnements moins contraints financièrement (Instituts et Universités privées aux Etats-Unis), ou dans des pays où le coût des essais thérapeutiques est bien moindre et qui auront pris beaucoup plus vite et résolument que nous le virage des bio-technologies (Chine, Inde, Asie du Sud-est).
La mise en place de plateaux techniques centralisés dotés des ressources humaines et technologiques suffisantes en génétique et en génomique est une nécessité qu'il importe de mettre en œuvre au plus vite. L'introduction en pratique hospitalière de ces nouvelles technologies ne peut se faire au coup par coup en fonction de l'arrivée sur le marché de tel ou tel nouveau médicament, mais doit permettre une analyse robuste, rapide et reproductible non pas d'un gène isolé mais d'une large série de gènes, voire bientôt du génome tumoral complet ; rappelons une nouvelle fois que les technologies de séquençage à haut débit du génome existent déjà, ont quitté le domaine de la recherche fondamentale pour celui de la commercialisation, et ont montré leur puissance et leur rapidité. Ces outils technologiques évolueront bien sûr encore par divers raffinements techniques, mais ces évolutions porteront surtout sur les modèles d'analyse bioinformatique des résultats, sur la simplification et la rapidité des techniques. Cette évolution des techniques n'entraînera pas une augmentation inéluctable des surcoûts.
On peut en première approximation considérer que 3 à 5 plates-formes de taille critique suffisante, et fonctionnant non comme des laboratoires de recherche fondamentale, mais comme des plates-formes de services ouvertes, de type semi-industriel, et équipées des matériels et de leur environnement bio-informatique, suffiraient pour assurer la caractérisation moléculaire et génétique de l'ensemble des tumeurs des nouveaux patients cancéreux français. L'accessibilité simple et rapide à des tests prédictifs fiables est donc un impératif stratégique de santé publique, et ce d'autant que les mêmes stratégies, et les mêmes technologies, permettront probablement à terme le démembrement et la personnalisation des traitements d'autres maladies chroniques, telles surtout les affections dégénératives du système nerveux.
Le Huffington Post
|
|
|
|
|
|
|
|
Une équipe de l’Institut de pharmacologie moléculaire et cellulaire de Sophia-Antipolis a identifié une nouvelle cible thérapeutique potentielle pour lutter contre la polykystose rénale. Cette maladie génétique héréditaire est à l’origine de 10 % des cas d’insuffisance rénale terminale. A ce jour, les gènes impliqués étaient connus mais pas les mécanismes en cause. Des travaux parus dans Cell Reports lèvent le voile sur une partie d’entre eux.
La polykystose rénale de l’adulte est une maladie héréditaire très fréquente. Elle touche environ une personne sur 1000 en France et se caractérise par le développement de kystes au niveau des reins et aussi souvent dans le foie et le pancréas. Elle est responsable de 10 % des insuffisances rénales terminales et entraîne également des manifestions vasculaires, notamment une hypertension et des ruptures d'anévrismes. Aucun traitement n’est actuellement disponible hormis la dialyse ou la greffe au stade ultime.
Les mécanismes en jeu sont mal connus mais les scientifiques ont déjà identifié les gènes en cause. Près de 85 % des malades présentent une mutation sur le gène PKD1 et environ 15 % sur PKD2 codant respectivement pour des protéines transmembranaires appelées polycystines 1 et 2. La première ressemble à un récepteur et la seconde à un canal ionique, mais leurs fonctions restaient mal connues à ce jour.
Des travaux parus dans Cell Reports et menés par une équipe de l’Institut de pharmacologie moléculaire et cellulaire (CNRS/Inserm) apportent un nouvel éclairage. Les auteurs savaient que lors de la maladie, des kystes se forment sur seulement 1 % des néphrons, l’unité fonctionnelle du rein, alors que ce dernier en comprend environ un million. Cependant, cela suffit à altérer l’ensemble de l’organe. A ce titre, les chercheurs ont émis l’hypothèse que ces kystes exercent une pression sur les autres néphrons et que ce "stress mécanique" est responsable de la dégradation de l’ensemble de la structure et de la fonction rénale.
Ils ont donc cherché à observer les effets d’une hyperpression provoquée au niveau du rein chez des souris et ont constaté que celle-ci entraîne la mort de nombreuses cellules rénales épithéliales. En poussant plus loin leurs investigations, ils ont également montré qu’un canal perméable aux ions potassium appelé TREK-2, présent dans la membrane de ces cellules, peut les préserver d’une mort certaine à condition de s’ouvrir sous l’effet de cette pression. Enfin, dans un troisième temps, les auteurs ont constaté que les protéines qui régulent l’ouverture de ce canal salvateur ne sont autres que ces fameuses polycystines.
- Une nouvelle cible au niveau du rein
"Une polycystine défaillante, comme c’est le cas dans la polykystose rénale, empêche l’ouverture du canal TREK-2 et la protection des cellules en cas d’augmentation de pression mécanique, résume Fabrice Duprat, co-auteur de ces travaux dans le laboratoire dirigé par Eric Honoré. Cette perte de mécano-protection contribue à la dégradation du rein lors de la polykystose. Les mécanismes en jeu restent à clarifier mais ce canal apparaît comme une nouvelle cible thérapeutique intéressante pour protéger de la maladie", conclut-il.
Inserm
|
|
|
|
|
|
|
|
Dans sa dernière édition, la revue Nature présente la toute première encyclopédie génétique cellulaire du cancer (The Cancer Cell Line Encyclopedia). Ayant pour vocation d’aider la recherche et les chercheurs qui se tournent de plus en plus vers une médecine et des traitements personnalisés, le document recense les gènes de plus de 1000 types de cancers et de tumeurs identifiés. Le cancer, quel que soit l’organe touché, est la résultante d’un processus d’altération génétique qui entraîne des mutations du génome d’une ou plusieurs cellules entraînant leurs division et leur multiplication de manière anarchique et incontrôlable. Un criblage précis de ces cellules et de leur génome permet d’identifier les variations génétiques et ainsi de classifier les tumeurs.
Travail titanesque, s’il en est, l’encyclopédie génétique cellulaire du cancer, qui a nécessité la collaboration d’un grand nombre de chercheurs dont ceux des services de biologie moléculaire de l'Institut Broad, de l'Institut du cancer Dana Farber, et de la Fondation Novartis, s’est appuyée sur un certain nombre d'analyses biologiques et moléculaires. De façon très minutieuse, les auteurs ont pour chaque tumeur non seulement établi un profil génétique détaillé, mais ont aussi fait le point sur les traitements et les thérapeutiques les plus efficaces pour les combattre.
Mise en ligne gratuitement et destinée à l’ensemble de la communauté scientifique l’encyclopédie a été créée pour recenser les gènes qui ont été mutés à l’intérieur des cellules cancéreuses. Ces derniers sont la cible de choix des nouveaux traitements personnalisés, qui ainsi s’attaquent uniquement aux cellules tumorales. En effet, différents travaux ont montré que certaines chimiothérapies étaient d’autant plus efficaces que certains gènes étaient présents.
Par ailleurs, la revue Nature a aussi publié les travaux du Wellcome Trust Sanger Institute, qui a testé les effets thérapeutiques de 130 médicaments sur plus de 600 lignées cellulaires. L’ensemble de ces publications devrait à terme permettre d’affiner et donc de cibler les traitements les plus efficaces pour combattre telle ou telle tumeur. C’est un pas de plus dans la lutte contre les cancers.
Information Hospitalière
|
|
|
|
|
|
|
|
Selon une étude américaine, au moins la moitié des cancers pourraient être évités en modifiant notre mode de vie. Parmi les facteurs incriminés, l'étude pointe le tabagisme, l'excès de poids ou le manque d'exercice. "Nous disposons d'un nombre gigantesque de données sur les causes et la prévention du cancer", souligne le Docteur Graham Colditz, épidémiologiste et professeur de médecine au Centre du cancer Siteman de la faculté de médecine de l'Université Washington (Missouri, centre).
"Il est temps de mettre en oeuvre tout ce savoir", a-t-il ajouté. Ce médecin est l'un des principaux co-auteurs de ce rapport paru dans la revue Science Translational Medicine, publiée par la revue scientifique américaine Science. "Nous savons que le mode de vie et la société jouent un rôle déterminant dans les causes du cancer", a poursuivi ce chercheur citant la cigarette, le type de nourriture consommée et le manque d'exercice. Ces chercheurs soulignent que le tabagisme est à lui seul responsable, pas seulement du cancer du poumon, mais d'un tiers de tous les cancers aux Etats-Unis. Un poids excessif et l'obésité comptent par ailleurs pour un cinquième des cas, précisent-ils.
Mais au-delà des mauvaises habitudes de chacun, la structure de la société elle-même a une influence sur la fréquence des cancers et pourrait être modifiée pour réduire l'incidence de cette maladie, selon les auteurs de l'étude qui pointent par exemple le rôle de l'allocation des fonds de recherche et les subventions à certains produits alimentaires. Ils voient plusieurs obstacles à une mise en oeuvre étendue des stratégies de prévention comme l'idée que le cancer ne peut être prévenu. Les taux de tabagisme dans différents Etats prouvent pourtant que 75 % des cancers du poumon aux Etats-Unis pourraient être évités en éliminant la cigarette. Un autre facteur néfaste pour la prévention de cette maladie est le fait que la recherche se concentre sur des objectifs à court terme au détriment de la prévention, sous-estimée, car il faut plusieurs décennies pour produire des résultats.
L'Institut américain du cancer (NCI) vient pour sa part de confirmer la baisse continue du nombre de cancers du poumon dans les deux sexes qui coïncide avec la diminution du nombre de fumeurs depuis ces vingt dernières années et conforte le bien-fondé des politiques de contrôle du tabagisme.
Dawn
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Les jeunes entreprises qui démarrent avec peu de fonds sont loin d'être prédestinées à moins réussir que leurs pairs ayant réalisé une levée importante. Un constat qui doit être nuancé.
Si le manque de capital de départ peut être perçu comme un obstacle au développement d'une start-up, partir avec un capital trop important ne serait pas forcément synonyme de succès. La richesse pourrait même faire plus de mal que de bien. C'est le constat que dresse une étude sur les entrepreneurs norvégiens menée par la Norwegian School of Economics. Celle-ci s'est intéressée à la relation entre le capital investi et les profits réalisés par la suite et constate que les start-up à plus petits budgets réussiraient davantage que les plus aisées. Sur l'échantillon étudié, les chercheurs ont constaté que la rentabilité des start-up les plus dotées était de 11 points inférieure à celle des plus petites.
Cette situation s'expliquerait par un manque de limites dans les liquidités qui pourrait conduire à un relâchement, selon le professeur Møen du département de finance et de science de gestion. "Un repos que ne peuvent s'autoriser les petites start-up", confie Joan Burkovic, co-Fondateur de Bankeen, à L'Atelier. Et d'ajouter que "ne pas avoir le choix pousse les moins fortunées à être plus débrouillardes, plus malignes, plus motivées et surtout à négocier sur tout". Ainsi, les entreprises plus riches gaspilleraient plus facilement des deniers au lieu de chercher des alternatives gratuites ou moins coûteuses. Faut-il pourtant en tirer une règle générale ?
- La valorisation de départ doit être adaptée
Julien Morel, directeur d'Essec Ventures, tempère les résultats de l'étude en expliquant à L'Atelier qu'il est difficile de tirer des conclusions arrêtées. En effet, il constate que sur la totalité des entreprises incubées à l'Essec, celles qui ont levé le plus de fonds sont celles qui ont progressé le plus au niveau du profit. "Le gâchis pourrait survenir au départ, lors de la valorisation", ajoute t-il. Une entreprise trop valorisée au départ pourrait connaître des difficultés dans le 2e round de levée de fonds. "Un financement par tranche paraît plus judicieux pour éviter le gaspillage. Il permettrait une meilleure gestion des fonds", conseille Julien Morel.
L'Atelier
|
|
|
|
|
|
|
|
Des scientifiques chinois et canadiens viennent d'identifier l'animal à plume le plus grand ayant jamais existé sur terre. Son squelette a été retrouvé en Chine, dans la province de Liaoning. Il s'agirait d'un cousin du Tyrannosaurus Rex. Neuf mètres de long pour un poids d'environ 1,4 tonnes : le Yutyrannus huali paraît être particulièrement impressionnant.
Les squelettes découverts, qui sont au nombre de trois, montrent un animal de la famille tyrannoïde géants, qui auraient été couverts de plumes. Beaucoup plus petit que le Tyrannosaure, ce petit cousin fait tout de même 40 fois plus que le plus grand animal à plumes connu jusqu'à présent : le Beipiaosaurus. « Ces plumes filamenteuses étaient d'une longueur d'au moins 15 centimètres », révèlent les paléontologues. « Elles ressemblaient davantage au duvet d'un poussin moderne qu'aux plumes rigides d'un oiseau adulte » d'après le paléontologue chinois Xing Xu.
Malgré la présence de plumes, les paléontologues pensent qu'il ne pouvait probablement pas voler : les plumes auraient été simplement à une fonction d'isolant thermique. « Les gros animaux peuvent généralement conserver leur chaleur plus facilement, et ont plutôt un problème potentiel de surchauffe », explique le docteur Corwin Sullivan
La présence de plumes chez cet animal, d'ailleurs, « pourrait correspondre à une adaptation à un environnement inhabituellement froid, avance l'étude. Il vivait pendant une période du Crétacé inférieur (146 à 100 millions d'années) que l'on pense beaucoup plus froide que le reste du Crétacé »
Cette découverte, majeure, apporte une nouvelle lumière sur les dinosaures. Il serait même possible que le Tyrannosaurus Rex lui-même ait été partiellement recouvert de plumes. Une touche de poésie, néanmoins, dans son nom : Yutyrannus huali signifie « Tyran à belles plumes ».
Sharknews
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|