|
|
Edito
Cancer : une mortalité qui ne cesse de reculer
La dernière étude de l'INVS sur le cancer a le mérite de remettre les pendules à l'heure et de tordre définitivement le coup à un mythe tenace, souvent entretenu par les médias, qui voudrait que la lutte contre le cancer stagne et que la mortalité par cancer ne cesse d'augmenter dans notre pays. Voyons quels sont les faits. Depuis 1980 où le nombre de nouveaux cas de cancers s'élevait à 170 000, ce nombre a presque doublé chez l'homme (augmentation de 93 %) et a progressé de 84 % chez la femme. La prise en compte des modifications démographiques de la population française ces 25 dernières années montre que 25 % de l'augmentation du nombre de cas est due à l'augmentation de la population et 20 % à son vieillissement (le risque de cancer augmentant avec l'âge). Un peu plus de la moitié des cas supplémentaires est due à l'augmentation du risque (52 % chez l'homme et 55 % chez la femme). Le nombre de décès par cancer en 2005 a été estimé à 146 000, traduisant une augmentation de 13 % depuis 1980. Cette augmentation du nombre de décès par cancer est très inférieure à celle que laissaient prévoir l'augmentation et le vieillissement de la population française (37 %), et le risque de mortalité par cancer a en fait diminué de 24 % entre 1980 et 2005, soit 1 point de moins par an. Il est remarquable de constater que, si l'on tient compte de l'augmentation de notre population et de son vieillissement (2 cancers sur 3 surviennent après 65 ans), le nombre de cancers a considérablement augmenté en France depuis 25 ans, mais que le risque de mortalité par cancer a, dans le même temps, sensiblement baissé. Selon les données rendues publiques, jeudi 21 février, par l'Institut de veille sanitaire (InVS), on estime à 320 000 le nombre de nouveaux cas de cancer en 2005, contre 170 000 en 1980. En 25 ans, l'incidence du cancer - la fréquence de la maladie - a quasiment doublé chez l'homme (+93 %) et fortement augmenté chez la femme (+84 %). La diminution du taux standardisé de mortalité par cancer est en moyenne de -1,1 % par an chez l'homme et -0,9 % chez la femme. Elle est encore plus marquée ces 5 dernières années, respectivement -2,5 % et -1,2 %. Pour l'ensemble des cancers, on constate donc que l'évolution de l'incidence et de la mortalité sont divergentes, augmentation de l'incidence et baisse de la mortalité. Le cancer du poumon reste le plus meurtrier (26 624 décès en 2005). Mais ce sont les cancers de la prostate (62 000 nouveaux cas par an) et du sein (50 000) qui sont désormais les plus fréquents, en grande partie en raison de l'utilisation systématique du dépistage. Cette apparente contradiction entre évolution de l'incidence et de la mortalité s'explique de manière logique par "l'évolution croisée des cancers" : les pathologies les plus agressives, comme le cancer de l'oesophage, de l'estomac et les tumeurs ORL, ont vu leur incidence chuter, du fait de la baisse de la consommation d'alcool et de tabac. Les cancers de pronostic plus favorable, comme le sein ou la prostate, sont, en revanche, en augmentation. En outre, si le nombre de cancers augmente en France, c'est pour moitié en raison de l'augmentation et du vieillissement de la population, le risque étant plus élevé de développer une tumeur chez les personnes âgées. Mais la hausse de l'incidence du cancer est également liée à notre environnement et à l'extension du dépistage qui permet de traiter précocement des cancers qui n'étaient tout simplement pas repérés il y a encore quelques années. Comparativement à ses voisins européens, la France affiche ainsi les plus forts taux d'incidence pour le cancer du sein et de la prostate. Or, si la mammographie de contrôle a prouvé son efficacité, en permettant une prise en charge plus précoce des tumeurs du sein, le dépistage du cancer de la prostate par test sanguin est contesté. Cette méthode présente en effet un risque de sur-diagnostic : des patients porteurs d'une pathologie dormante sont ainsi soumis à des traitements invasifs. Pour le docteur Françoise Weber, directrice générale de l'InVS, l'extension annoncée des pratiques de dépistage "doit amener à reposer, pour chaque patient, sur le fait d'engager ou non un traitement." "On doit maintenant s'habituer à l'idée qu'on peut vivre aussi avec un cancer, souligne pour sa part le professeur Dominique Maraninchi, président de l'Institut national du cancer (INCa). Cette étude de l'INVs est à rapprocher des chiffres publiés récemment par l'Institut National du Cancer des Etats-Unis. Ces statistiques américaines montrent que le taux de mortalité par cancer a baissé de 2,1 % par an entre 2002 et 2004. C'est deux fois plus que la baisse annuelle de 1,1 % enregistrée dans ce même pays entre 1993 et 2002. Fait encore plus remarquable, depuis 5 ans, la mortalité par cancer baisse en valeur absolue aux Etats-Unis et a retrouvé le niveau des années 30 dans ce pays alors que la population américaine a considérablement augmenté et vieilli depuis 70 ans. Ces résultats sont attribués à la politique anti-tabac, mais aussi à de meilleures mesures de dépistage et à l'amélioration de l'alimentation avec notamment depuis 1998 l'enrichissement des aliments de base en vitamine B9. La baisse concerne la plupart des cancers, en particulier le cancer du sein chez la femme, les cancers du poumon et de la prostate chez l'homme, les cancers colorectaux dans les deux sexes. Chez la femme, la mortalité par cancer du poumon se stabilise après avoir augmenté ces dernières années. On observe la même tendance au niveau européen : une étude publiée dans la revue britannique The Lancet Oncology et qui a porté sur la survie des personnes dont le cancer a été diagnostiqué entre 1995 et 1999 dans 23 pays européens montre que le taux de survie relatif à cinq ans atteint 44,8 % pour les hommes et 54,6 % pour les femmes tous cancers confondus, soit 51,9 % en moyenne. Comparés aux résultats d'EUROCARE-3 qui portait sur les cancers diagnostiqués entre 1990 et 1994, les taux de survie relative se sont améliorés pour toutes les localisations étudiées. On voit donc que, dans l'ensemble des pays développés, et contrairement aux prévisions ou allégations pessimistes que l'on entend encore trop souvent, la mortalité globale par cancer ne cesse de diminuer depuis plusieurs années en dépit de l'augmentation et du vieillissement de la population. Cette évolution très encourageante est incontestablement due à une amélioration continue des traitements et outils de détection précoce mais également à une amélioration des politiques de prévention, notamment en ce qui concerne le tabagisme, l'alcoolisme et les mauvaises habitudes alimentaires. Il reste qu'un effort considérable reste à accomplir dans ce domaine essentiel de la prévention car 30 à 50 % des cancers pourraient très probablement être évités si l'ensemble de la population adoptait un mode vie sain qui peut se résumer ainsi : pas de tabac, peu d'alcool, réduire globalement son apport calorique, manger moins de protéines animales et plus de protéines végétales, manger plus de fruits et légumes frais tous les jours, faire de l'exercice physique régulièrement et limiter, autant que faire se peut, l'exposition à la pollution atmosphérique et à la pollution chimique diffuse et intérieure dont on commence seulement à mesurer le pouvoir cancérogène. Un long chemin reste à accomplir mais nous savons à présent avec certitude, grâce à ces études convergentes, que le cancer n'est pas une fatalité et qu'il sera vaincu au cours de ce siècle. Mais pour que cette victoire soit plus proche, nous devons attaquer ce fléau sur tous les fronts en même temps et admettre que la médecine seule ne suffira pas à atteindre ce but si nous n'agissons pas également de manière puissante et déterminée pour transformer nos habitudes de vie et améliorer la qualité de notre environnement. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
Pour répondre au développement croissant de la VoD, les vidéos club du groupe CPFK, à savoir les enseignes Vidéo Futur, Cinebank et Vidéo Pilote, ont décidé de lancer un nouveau système de location dématérialisée. Basé sur un lecteur à disque dur portable réalisé spécialement par Archos, ce nouveau dispositif, baptisé Moovyplay, permet aux clients de ces enseignes de télécharger en magasin les films de leur choix sur leur lecteur, puis de les visionner sur leur télévision. Le lecteur peut soit être acheté au prix de 149 euros, soit loué pour 7 euros par mois. Comme pour la VoD, les clients ont 30 jours pour activer les films qu'ils souhaitent voir et revoir et ne paient que ceux qu'ils ont visionnés. Ce paiement peut s'effectuer directement au vidéo club ou en envoyant un SMS à un numéro dédié. Déjà en test depuis fin 2007 dans 24 magasins du groupe, ce nouveau service devrait être déployé au niveau national en avril 2008. JDNet
|
|
|
|
|
|
|
|
Le grand intérêt du code-barres à deux dimensions réside aujourd'hui dans le fait que celui-ci peut être déchiffré à l'aide des appareils photo de nos chers téléphones mobiles et renvoyé alors vers un numéro à appeler, une page Web... Dans ce domaine, il existe de nombreux formats de codes-barres à deux dimensions plus ou moins ouvert et plus ou moins propriétaires, chacun d'entre eux nécessitant un logiciel spécifique à installer sur son téléphone mobile. Comme dans tous les domaines, la multiplication des formats est évidemment un frein à la démocratisation des usages. Or l'AFMM (Association française du multimédia mobile), qui comprend Orange, SFR ainsi que Bouygues Telecom et la société MobileTag, spécialisée dans le domaine, ont signé un contrat de licence réciproque sur les spécifications d'un format de code-barres 2D baptisé Flashcode (une marque déposée à l'origine par Orange mais désormais propriété de l'AFMM). « Cette spécification définit non seulement le choix d'une norme de code-barres 2D, la norme datamatrix, mais également celui d'une spécification commune aux opérateurs définissant la manière d'interpréter les actions à lancer suite à la lecture d'un code-barres 2D comme par exemple, la connexion à un site Internet mobile, l'envoi automatique d'un SMS, la génération d'un appel vocal, ou encore l'enregistrement d'une nouvelle carte de visite au sein des contacts du mobile », explique Domenico Surace, PDG de MobileTag. « Pour l'instant, il existe encore assez peu de mobiles qui peuvent accueillir un lecteur Flashcode, mais avec cet accord nous pensons que les prochains modèles mis sur le marché intègreront en standard des lecteurs de ce type. La France est très en avance sur ce sujet. Cet accord est une première européenne et nous allons pousser pour faire de la norme Flashcode un standard international », développe Nicolas Guieysse, délégué général de l'AFMM. OINet
|
|
|
|
|
|
|
|
Le président Nicolas Sarkozy a promis de porter à 100 % avant 2012 le nombre des Français ayant accès à internet à haut débit. Il s'exprimait lors de l'inauguration du CeBit 2008, salon international des technologies de l'information, à Hanovre, en Basse-Saxe, salon dont la France est l'invitée d'honneur. "J'ai deux objectifs", a-t-il dit. "Je veux porter en deux ans à 70 % la part des ménages français équipés d'un ordinateur et je veux que 100 % des Français aient accès à l'internet à haut débit fixe et mobile avant la fin de mon quinquennat." Selon l'Elysée, 55 % des Français sont aujourd'hui équipés d'un ordinateur, alors que la moyenne européenne est de 70 %, et 40 % des Français ont actuellement accès au haut débit mobile. Nicolas Sarkozy s'est réjoui de ce que l'Allemagne et la France aient demandé ensemble, à la conférence mondiale des radiocommunications, qu'une part des fréquences dégagées par la fin de la télévision analogique puisse être consacrée à l'internet haut débit et à "l'aménagement numérique du territoire". OINet
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Tout sauf de la science-fiction ! Le CHU de Brest accueille actuellement deux robots mis au point par le Commissariat à l'énergie atomique (CEA). Inédits en France, ils sont en cours d'évaluation dans le service de médecine physique et de réadaptation, en vue d'une industrialisation dans quelques années. Le premier appareil est utilisé pour la rééducation de personnes victimes d'un traumatisme crânien, d'un accident vasculaire cérébral ou d'un problème à l'épaule. La machine se compose d'un fauteuil roulant classique, d'un écran plat sur lequel on diffuse des jeux comme le ping-pong et d'une poignée qu'agrippe le patient. Elle lui sert de raquette, en quelque sorte. « À la différence de la console Wii, la personne souffrant d'un handicap ressent ici certaines sensations plus ou moins fortement, lorsque la raquette frappe la balle par exemple, souligne le professeur Olivier Rémy-Néris. Il n'existe pas d'autres robots aussi sophistiqués en France. » Une cinquantaine de Brestois se sont déjà essayés à cet appareil au cours de séances de vingt minutes maximum. Les premières réactions sont bonnes, même si des défauts sont signalés. « Reste à trouver des financements pour évaluer si cet équipement est réellement profitable aux patients. » S'il devait être fabriqué en série, le coût oscillerait entre 40 000 ou 50 000 ?, espèrent ses concepteurs. L'autre avancée technologique testée est le « robot compagnon », doté d'un bras télescopique et capable de servir des tétraplégiques, des enfants et des personnes âgées. Via un ordinateur, depuis son fauteuil ou son lit, on peut donner l'ordre au robot mobile d'aller chercher une bouteille, une cannette ou tout autre objet de moins de 1,2 kg, posé sur une table ou dans une autre pièce. « On peut imaginer que, dans le futur, cet appareil ouvrira la porte d'un réfrigérateur et ramènera le produit demandé, explique Christophe Leroux, du CEA. Nous n'en sommes pas encore là. D'ici cinq ou dix ans peut-être. À condition, bien sûr, de trouver des financeurs et des fabricants capables de construire ces robots pour 70 000 ?. » OF
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
L'Europe vient de franchir, le 9 mars, une nouvelle étape dans ses capacités de conquête de l'espace, un mois après l'amarrage de son laboratoire Columbus à l'ISS, avec le lancement de l'ATV, futur vaisseau de ravitaillement de la Station spatiale internationale. Pour l'Europe, la mission de l'ATV (Automated Transfer Vehicle) représente plusieurs premières : il s'agit du plus gros véhicule jamais lancé par une fusée Ariane 5, qui a dû être modifiée, l'Europe effectuera pour la première fois un rendez-vous spatial automatisé, et le vol sera suivi d'un centre de contrôle spécial construit à Toulouse. L'ATV, dont le premier exemplaire a été baptisé Jules Verne, est un véhicule de 20 tonnes destiné à ravitailler l'ISS en eau, ergols, vivres et matériel scientifique, et à rehausser son orbite. Chargé ensuite des déchets de la Station, il sera à la fin de sa mission de six mois précipité dans l'atmosphère où il se désintègrera. Concrètement, Jules-Verne est un cargo du gabarit d'un bus à impériale londonien. D'un poids de 20 tonnes, il est capable d'en transporter jusqu'à 9 de cargaison, soit trois fois plus que les actuels ravitailleurs russes. Le premier défi de ce bijou technologique sera de s'arrimer à la Station spatiale (ISS) qui gravite à 400 kilomètres au-dessus de nos têtes. Sous contrôle terrestre, l'ATV devra atteindre une cible de 60 centimètres de diamètre alors qu'il file comme l'ISS à une vitesse de 28 000 km/h. Une fois arrimé, début avril, Jules-Verne finira de se délester de ses 8,3 tonnes de matériel. Près de 6 tonnes de cette charge sont du carburant. Une partie aura servi au voyage de cargo qui dispose ainsi de l'autonomie nécessaire pour atteindre son orbite, assurer son rendez-vous avec la station, s'y accrocher et la quitter à la fin de mission, six mois plus tard. Pour l'ESA, la mission ATV Jules-Verne va bien au-delà d'une seule opération cargo. L'ESA prévoit de construire 5 ATV d'ici à 2015 afin de remplacer les navettes américaines dont la retraite est prévue pour 2010. Après cette date, seules les navettes russes Soyouz feront les allers et retours habités vers l'ISS. Avec ce projet, l'Europe acquiert la maîtrise des techniques de rendez-vous spatial pour l'assemblage de vaisseaux. Son amarrage à un module russe de l'ISS, environ deux semaines après le lancement, sera en effet automatisé, sans intervention humaine. Cette capacité est essentielle pour la construction de stations spatiales, mais également pour des missions humaines vers la Lune ou d'autres planètes, ou encore pour envisager un projet de retour d'échantillons de Mars. ESA
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Une étude rendue publique récemment à Jakarta indique que la transformation des forêts d'une seule province indonésienne en plantations destinées à produire de la pâte à papier ou de l'huile de palme émet plus de gaz responsables du réchauffement climatique que les Pays-Bas. Les experts du Fonds mondial pour la nature (WWF) et de l'université japonaise d'Hokkaido ont enquêté dans la province de Riau, dans le centre de l'île indonésienne de Sumatra, où 4,2 millions d'hectares de forêts tropicales ont été défrichées ces 25 dernières années. Les experts ont constaté que la déforestation dans cette province rejette des émissions annuelles de gaz à effet de serre équivalant à 122 % des émissions annuelles hollandaises, à 58 % des émissions australiennes, à 39 % des rejets polluants britanniques ou à 26 % des émissions allemandes. Dans l'étude, les experts ont indiqué que si la déforestation ne cessait pas, non seulement cette pratique nuirait au climat en émettant des gaz responsables du réchauffement, mais également les derniers tigres et éléphants sauvages de Sumatra s'éteindront. Une étude de l'ONG Wetlands International et de l'institut néerlandais Delft Hydraulics ont estimé que les forêts sur tourbières, un écosystème spécial qui se rencontre essentiellement en Indonésie, émettent 2 milliards de tonnes de CO2 par an lorsqu'elles brûlent ou se dégradent pour être converties en plantations, soit 8 % des émissions globales. Toujours selon l'ONG, trois années (1997, 1998 et 2002) ont été marquées par des incendies qui ont dévasté entre 1,5 et 2,2 millions d'hectares de tourbières à Sumatra et Bornéo. Ces années là, l'Indonésie a rejeté environ 40 % du CO2 mondial. Env2b
|
|
|
|
|
|
|
|
Dans un article publié dans La Recherche, trois spécialistes de l'énergie et du climat, Benjamin Dessus, Bernard Laponche et Hervé Letreut, lancent un pavé dans la mare. À force de se focaliser sur le gaz carbonique (CO2), et de négliger l'impact des autres gaz à effet de serre, comme le méthane (CH4) ou l'oxyde nitreux, les politiques de lutte contre le réchauffement risquent, selon eux, de tourner au fiasco. Ils ne remettent pas en question la réalité du réchauffement climatique, mais critiquent les options en matière de réduction. Ils démontrent, chiffres et courbes à l'appui, que la récupération de la majeure partie du méthane (CH4) dégagé par la décomposition des décharges d'ordures ménagères aurait plus d'impact sur la réduction du réchauffement climatique que la construction de trois réacteurs nucléaires de type EPR. Ou, plus concret encore, qu'elle aurait le même effet que l'isolation thermique de 400 000 logements anciens par an pendant vingt-cinq ans. Le tout à moindres frais, en valorisant une ressource énergétique pouvant servir aussi bien à produire de l'électricité qu'à chauffer des immeubles ou à faire rouler des bus ou des voitures... Pour illustrer leur propos, les chercheurs s'appuient sur la résolution du Conseil des ministres de l'Environnement de l'Union européenne, en date du 30 octobre 2007. Pour éviter un réchauffement planétaire de plus de 2°C, le texte préconise, en effet, de « stabiliser la concentration des gaz à effet de serre dans l'atmosphère à environ 450 ppm d'équivalent CO2» en procédant par étape. Les émissions devront « atteindre leur maximum dans les dix ou quinze ans qui viennent» avant de revenir « d'ici à 2050» à «un niveau inférieur d'au moins 50 % à celui de 1990». Fort bien. Sauf que «seuls les efforts de réduction du CO2 sont cités, déplorent nos trois experts. Les gaz à effet de serre autres que le CO2 (méthane, oxyde nitreux, etc.) ne font l'objet d'aucune mention spécifique». Même constat en France : «Lors du “Grenelle de l'environnement”, toutes les mesures prononcées concernaient la réduction des émissions de CO2 sans qu'une seule fois, dans le document final, ne soit jamais mentionné le méthane.» Pourquoi un tel oubli ? Essentiellement pour des raisons pratiques répondent les auteurs. La conversion en «tonnes équivalent CO2» permet, en effet, de comptabiliser plus facilement la contribution des différents gaz responsables de l'effet de serre. Mais du fait de la «généralisation de son emploi ...], tout se passe comme si l'on avait affaire à un seul gaz, “équivalent CO2” dont il s'agit de réduire les émissions.» Plus grave : les calculs d'équivalence sont effectués de façon très approximative, ce qui contribue à sous-estimer l'impact du méthane, notamment. Il est ainsi couramment admis que l'émission d'une tonne de méthane dans l'atmosphère a le même effet que 21 tonnes de CO2. Sauf que cette équivalence n'est valable que sur une période de cent ans. Le temps de vie du méthane dans l'atmosphère étant beaucoup plus faible que celui du CO2, son impact climatique est d'autant plus élevé que la période de référence choisie est courte. Par exemple : à l'horizon 2050, date à laquelle l'Europe veut réduire de 50 % ses émissions de gaz à effet de serre par rapport à 1990, le «pouvoir de réchauffement global» du méthane n'est plus égal à 21 mais à 49. Et à cinq ans, une tonne de méthane fait autant de dégâts que 101 tonnes de CO2 ! À l'horizon de cinquante ans, la sous-estimation des effets engendrée par l'utilisation du PRG de 21 est donc très élevée (un facteur 2,7) et elle reste encore d'un facteur 1,9 sur cent ans. Conclusion : l'Europe ne pourra pas atteindre son objectif si elle n'intègre pas le méthane dans son programme de réduction d'émissions et si elle persiste à lui appliquer un coefficient d'équivalence inadapté. [LR
|
|
|
|
|
|
|
|
Pour la première fois à l'échelle d'une collectivité locale en France métropolitaine, un système d'assainissement d'eaux usées associant roseaux et bambous vient d'entrer en fonction dans une commune rurale du Maine-et-Loire. Le nouvel équipement de Vezins (1.600 habitants) se présente sous la forme d'un parc de trois hectares comprenant trois bassins filtrants plantés de roseaux, trois lagunes de 4.000 m2 et une jeune bambouseraie de plus d'un hectare. Il se trouve en bordure de l'Evre, un affluent de la Loire dont la fragilité a conditionné la réalisation de la station. "En période estivale, nous avons une obligation de non-rejet dans l'Evre pendant trois mois, explique Philippe Coutant, directeur de l'environnement de la communauté d'agglomération de Cholet, dont fait partie Vezins. Nous cherchions donc un système écologique qui permette de stocker, sans polluer, les eaux traitées". Filtrées par les roseaux puis décantées dans les bassins de lagunage, les eaux usées sont dirigées --partiellement l'hiver, en totalité l'été-- vers la bambouseraie. Laquelle, grâce à ses vertus naturelles, joue un rôle de dépolluant complémentaire déterminant. "Dans les stations d'épuration classique, on active les boues pour créer l'oxygène nécessaire au développement des bactéries qui dégradent les polluants. Avec les bambous, c'est le système racinaire très dense qui permet de développer lui-même naturellement cet oxygène", explique Bernard Benayoun, le PDG de Phytorem, jeune entreprise provençale qui commercialise le concept. Le bambou se nourrit aussi des éléments polluants (phosphates, nitrates) pour les transformer en biomasse. "Le gros avantage est de ne pas générer de boues, mais au contraire d'épurer les sols. En termes de rentabilité énergétique, c'est extrêmement positif", assure Bernard Benayoun. D'un coût de 1,3 million d'euros, l'investissement, financé par les collectivités et l'Agence de l'Eau Loire-Bretagne, équivaut à celui d'une station d'épuration classique à boues activées. "Mais le coût d'exploitation est divisé par trois pour des performances de traitement comparables", précise Philippe Coutant. L'absence de besoins chimiques et la faible consommation énergétique de l'équipement (pompes exceptées) expliquent notamment la réduction de ces coûts. Yahoo
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les matériaux vivants peuvent être considérés comme des hydrogels physiques complexes. Ceci signifie qu'ils sont constitués essentiellement d'un réseau de chaînes polymères emprisonnant une très grande quantité d'eau (80 % en poids, par exemple, dans le cartilage articulaire), et des cellules vivantes, productrices de ce réseau polymère. De plus, de nombreux tissus vivants sont formés de plusieurs couches de gels contenant des cellules différentes et ces cellules ne peuvent se déplacer librement dans une couche et encore moins d'une couche à l'autre. Partant de ce constat, une équipe de l'unité « Ingénierie des matériaux polymères », IMP, (CNRS / Université Lyon 1 / Université Saint-Etienne / Insa Lyon) a élaboré de nouveaux hydrogels physiques multimembranaires « leurres des milieux biologiques ». Ces biomatériaux peuvent adopter de nombreuses formes (sphères, disques, tubes, etc.) et présentent de nombreuses applications dans le domaine biomédical. Ils peuvent être directement utilisés comme implants mais constituent également de véritables bioréacteurs d'un type nouveau par leur structure multimembranaire. Contrairement à ceux traditionnellement utilisés, ces nouveaux matériaux permettent de cultiver des cellules de nature différente dans plusieurs espaces intermembranaires, ce qui permet d'envisager la production de tissus complexes pluricellulaires multicouches comme la peau ou les vaisseaux sanguins. L'effet leurre permet de tirer partie de l'activité biologique particulière des hydrogels et de ralentir le processus de dégradation des membranes. Ceci engendre alors une interpénétration des cellules, initialement compartimentées, défavorable pour la construction des tissus multicouches et pluricellulaires complexes tels que la peau. Dès lors que les membranes possèdent des entités absentes chez les mammifères, leur biodégradation se trouve fortement ralentie, ce qui permet de séparer la culture de cellules de nature différente sans toutefois empêcher leur communication. Ce bioréacteur innovant vient d'être breveté. Une collaboration avec des spécialistes de biologie cellulaire a déjà permis de prouver l'efficacité de ces nouveaux bioréacteurs. En effet, ces biologistes ont cultivé des chondrocytes, cellules du cartilage, dans plusieurs espaces intermembranaires successifs pendant huit mois. Les résultats sont excellents : les chondrocytes se multiplient sans se transformer en fibroblastes et produisent une quantité très importante d'un tissu tout à fait semblable à du cartilage. Ces bioréacteurs seraient donc en mesure de répondre aux demandes de greffes toujours plus nombreuses. CNRS
|
|
|
|
|
|
|
|
La stimulation cérébrale profonde, technique utilisée contre la maladie de Parkinson et certains troubles psychiatriques, va être améliorée grâce à un atlas du cerveau en trois dimensions. Extrêmement plastique, doté d'un réseau incroyablement complexe de cent milliards de neurones, il évolue en permanence de la naissance à la mort pour s'adapter à notre environnement et aux expériences vécues par chacun : si 10 % des connexions interneuronales existent à la naissance, les 90 % restantes résultent des influences rencontrées tout au long de notre vie. Cette remarquable plasticité lui permet aussi de compenser en partie les effets d'une lésion. La stimulation cérébrale profonde, pour laquelle les Français sont des leaders incontestés, a totalement transformé la prise en charge de certains patients atteints de maladie de Parkinson. Avec aujourd'hui une extension mesurée des applications de cette technique à certains troubles obsessionnels compulsifs et certains tics (maladie de Gilles de la Tourette) ainsi que dans le domaine de la neurochirurgie. Il s'agit d'une stimulation électrique «à haute fréquence» délivrée à l'aide d'électrodes très fines qui vont traverser une partie de l'encéphale (sans les léser) pour atteindre des zones cérébrales profondes. Elle a permis, chez un petit nombre de malades parkinsoniens dûment sélectionnés, de supprimer tremblement ou rigidité. Encore faut-il, pour que cette stimulation soit efficace, et sans effets secondaires, cibler très précisément la minuscule zone concernée, à savoir le noyau subthalamique (dix millimètres de long, cinq de large et trois d'épaisseur). C'est dire l'importance de disposer de cartes d'une extrême précision des centres nerveux concernés. Neurodon aidant, la Fédération a financé les travaux d'une équipe de l'Inserm dirigée par le Docteur Jérôme Yelnik, directeur de recherche à la Salpêtrière. Son équipe (en partenariat avec le CNRS et l'Inria, l'Institut national de recherche en informatique et en automatique), a réussi à réaliser une carte du cerveau en trois dimensions, permettant de reconstituer la structure tridimensionnelle des «noyaux cérébraux de la base». Des outils informatiques ont été développés pour l'adapter de façon automatique aux dimensions particulières du cerveau de chaque patient. Grâce à ce «Google Earth du cerveau, il est désormais possible de zoomer et de savoir avec une extrême précision où implanter les électrodes», résume le Docteur Hirsch. Figaro
|
|
|
|
|
Une nouvelle méthode de traitement des tumeurs mammaires par ultrasons pourrait être bientôt proposée aux patientes atteintes d'un cancer du sein. Il s'agit d'une technique non invasive d'ablation par radiofréquence, déjà utilisée dans le traitement de certains cancers du foie. Reposant sur la destruction des tissus cancéreux par application de hautes températures, l'ablation par radiofréquence représenterait une alternative intéressante aux autres traitements habituels. Surtout lorsque l'état de la patiente n'est favorable ni à la chirurgie conventionnelle ni à la chimiothérapie. Elle permettrait par ailleurs de réduire considérablement la durée de l'hospitalisation. Son coût serait donc relativement raisonnable. Une étude de phase I est actuellement en cours à l'Institut Bergonié de Bordeaux, où un prototype a été mis au point par l'équipe du Professeur Jean Palussière. Les premières patientes devraient être traitées d'ici la fin de l'année. Yahoo
|
|
|
|
|
|
|
|
Des lésions sans relief, apparemment assez fréquentes dans le colon et difficiles à détecter, seraient liées à un plus grand risque de cancer du gros intestin que certains polypes, selon une étude publiée dans le Journal of the American Medical Association (JAMA). Les efforts de prévention du cancer du colon, deuxième cause de décès par cancer aux Etats-Unis, se concentrent sur la détection et l'ablation de polypes lors de colonoscopie. Mais une analyse de données provenant de 1.819 patients en Californie a révélé qu'il y a près de dix fois plus de risques que ces lésions plates contiennent des cellules cancéreuses que des polypes quel que soit leur taille. Ces lésions, quand elles forment une dépression sur la membrane de la paroi intestinale, encore plus difficiles à détecter lors d'un examen, présenteraient le plus grand risque (33 %) d'évoluer en cancer. "Les futures études de ces lésions devraient mieux évaluer si leur diagnostic et leur ablation ont un effet sur la prévention et la mortalité due au cancer colorectal", écrit le docteur Roy Soetikno, le principal auteur de cette recherche. Dans un éditorial accompagnant cette étude, le Docteur David Lieberman, de la faculté de médecine d'Oregon (Washington, nord-ouest), relève que ces "lésions ou néoplasmes paraissent être probablement plus enclines à contenir des cellules cancéreuses". Et dans la mesure où elles sont difficiles détecter, "il est très important que les colonoscopies soient faites avec la plus grande attention", ajoute-t-il notant "qu'on ne sait pas avec certitude qu'elle est la méthode la plus efficace de les conduire". Des études ont montré que de 0,3 à 0,9 % des personnes ayant eu une colonoscopie et le retrait de un ou plusieurs polypes développent un cancer du colon quelques années après. Certains médecins pensent qu'une grande partie de ces cas pourraient s'expliquer par la non-détection de ces lésions plates ou par le fait qu'elles n'aient pas été entièrement enlevées. JAMA
|
|
|
|
|
|
|
|
Recouvrir la vue grâce à une dent, la sienne ou celle de son fils, comme l'a expérimenté un Irlandais, devenu aveugle après une explosion, ne relève ni du miracle ni d'un docteur Frankenstein, mais d'une opération chirurgicale imaginée il y a des décennies par un ingénieux spécialiste italien. "500 à 600 interventions de ce type ont été pratiquées au total dans le monde", indique le Dr Bernard Duchesne (université de Liège). La technique, dite d'"ostéo-odonto-kératoprothèse, a été "inventée par (Benedetto) Strampelli en 1956", ajoute ainsi l'un des "huit" spécialistes au monde de cette opération, avec notamment le Français Emmanuel Lacombe. "Il s'agit d'une alternative à la greffe de cornée, quand cette dernière n'est pas possible, mais aucunement bien sûr d'un remplacement de l'oeil entier par une dent", dit-il. La technique, surtout utilisée dans les années 60, a été entre-temps modifiée par la famille Falcinelli, Giancarlo et Giovanni, qui ont publié en 2005 la première évaluation scientifique de la méthode sur 223 patients. "On se sert beaucoup plus fréquemment d'une dent du patient, généralement une canine, précise-t-il, que de celle d'un donneur apparenté compatible avec le receveur", comme dans le cas de l'Irlandais Bob McNichol, 57 ans. M. McNichol avait perdu la vue en 2005 lors d'une explosion dans une entreprise de recyclage d'aluminium. Schématiquement, "tout matériau synthétique directement implanté dans l'oeil se voit expulser par la couche de surface, c'est-à-dire l'épithélium, et c'est encore plus vrai au niveau de la cornée", explique M. Duchesne. "Or l'inventeur a observé que dans l'organisme, deux matériaux rigides pouvaient être en contact sans problème avec de l'épithélium, les ongles et les dents", poursuit-il. "Il a observé par ailleurs que la muqueuse buccale tolère la dent, si le ligament alvéolo-dentaire est en bon état. Sinon (problème d'hygiène, maladies familiales...), la muqueuse cherche à l'expulser, provoquant le déchaussement de la dent". Une observation dont Benedetto Strampelli, "assez génial", a su tirer parti. Concrètement, on prélève le bloc ostéo-dentaire où se trouve la racine de la dent avec ce fameux ligament, puis l'émail est enlevé. On meule ce bloc pour obtenir un parallélépipède rectangle de 7 à 8 mm de large, de 14 à 16 mm de long et 2,5 à 3 mm d'épaisseur. On le perce pour y introduire une simple optique en plastique transparent, et ainsi le boucher. L'ensemble est alors placé sous la peau du patient pendant 3 mois minimum, pour qu'il soit colonisé par des cellules et entouré de tissus fibreux afin de permettre de faire les points de suture. "Parallèlement, on prépare l'oeil en lui enlevant la fine couche qui le recouvre (opération dite kératotomie) et la remplaçant par de la muqueuse buccale afin que la dent retrouve le milieu auquel elle est habituée", poursuit l'ophtalmologue. L'aspect n'est "pas très joli (pupille sans iris, couleur rosâtre)", mais esthétiquement une grande lentille de contact avec un iris dessiné dessus peut être "acceptable". Des lunettes permettent d'adapter ensuite la vue, poursuit le spécialiste. "La récupération visuelle est suffisante pour conduire une voiture", ajoute-t-il, évoquant un chauffeur de taxi à Rome, opéré de cette manière. "Cette technique, très lourde (en durée et personnels), n'a jamais été très en vogue", admet-il, mais elle reste "utile". Pour sa part, le patient irlandais opéré à Brighton se réjouit de voir "suffisamment" pour se déplacer et regarder la télévision. Yahoo
|
|
|
|
|
|
|
|
Les chercheurs se déclarent capables de dire quelles images ont été vues par des volontaires en repérant les signaux émis par le cerveau, selon leurs travaux publiés en ligne par la revue scientifique britannique Nature. Ils ont eu recours pour ce faire à l'imagerie par résonance magnétique fonctionnelle (IRMf), utilisée pour explorer et comprendre le fonctionnement du cerveau humain. L'IRMf permet de mesurer les variations de flux sanguin et ainsi de repérer quelles zones du cerveau entrent en activité lors de certaines tâches (calcul, réactions sensorielles au toucher, au bruit, à la vue...). En l'occurrence, l'équipe de Jack Gallant de l'université de Californie, à Berkeley (Etats-Unis) s'est intéressée au cortex visuel, la partie du cerveau qui reconstitue les images transmises par les yeux. Deux volontaires, membres de l'équipe se sont prêtés à cette expérience visant à identifier l'image vue. A ce stade, "il ne s'agit pas de lire dans les pensées ou les rêves ni même de reconstruire l'image vue, ce que personne ne peut faire", avertissent les chercheurs. L'équipe a préalablement préparé un modèle mathématique à partir des différences de débits sanguins détectées dans trois des aires du cortex visuel. 1.750 images (arbres, fleurs, bâtiments...) ont été présentées aux volontaires et les données de leur activité cérébrale enregistrées. Puis, le programme décodeur a calculé à partir d'un nouveau jeu de 120 images, quel profil d'imageries fonctionnelles (signaux) devait être obtenu au niveau du cortex visuel. Les deux volontaires ont ensuite regardé ces 120 images sous contrôle de l'IRMf. Restait à l'ordinateur, muni du programme de calcul des chercheurs, à déduire d'après l'activité cérébrale observée quelle était l'image regardée, puis de vérifier la qualité de cette prédiction. Taux de succès : 92 % avec un volontaire, et 72 % avec l'autre, ce qui selon les chercheurs dépasse largement la probabilité de tomber juste uniquement par hasard qui serait, d'après eux, inférieure à 1 %. Dans un second temps, le jeu d'images nouvelles a été enrichi en passant de 120 à 1.000. Le taux de succès est alors passé de 92 % à 82 %. "Avec un milliard d'images, en gros le nombre d'images indexées par Google sur le Net, le décodeur identifierait une image dans 20 % des cas", relève Jack Gallant. L'introduction artificielle d'images voire de films dans le cerveau humain relève encore de la science fiction. En revanche, selon les chercheurs, la technique pourrait servir comme aide au diagnostic (attaques cérébrales, démences) ou pour évaluer des effets thérapeutiques (médicament, thérapie cellulaire) voire dans un scénario plus futuriste pour construire des interfaces cerveau-machine, qui permettraient, par exemple à un tétraplégique, de commander des machines (bras artificiel ou autre instrument). Nature
|
|
|
|
|
|
|
|
Une étude britannique vient de remettre en cause l'efficacité des antidépresseurs de la classe des inhibiteurs sélectifs de la recapture de la sérotonine (ISRS). Autrement dit celle du Prozac (fluoxetine) qui, en France, vient de voir son indication étendue chez l'enfant et l'adolescent ! Selon cette étude, ces antidépresseurs-là seraient, à quelques exceptions près, aussi efficaces qu'un placebo... L'équipe du Professeur Irving Kirsch de l'Université de Hull, a compilé 47 essais cliniques portant sur les ISRS. Certaines de ces études avaient été rendues publiques, d'autres pas... En fait, cette méta-analyse a pris en compte la totalité de la littérature scientifique disponible sur le sujet. Un travail sérieux donc, qui a porté sur le Prozac (fluoxetine), mais également sur l'Effexor (venlafaxine), le Serzone (nefazodone) et le Deroxat (paroxetine). Conclusion de cette étude : cette génération d'antidépresseurs serait selon le Professeur Kirsch, largement inefficace ! « Les patients se sentent mieux en (les) prenant, (mais) il en va de même pour ceux qui se voient administrer un placebo ». Et encore, « l'amélioration n'est pas si importante », précise-t-il. Seuls les patients atteints de dépression « très sévère » répondraient favorablement à ce type de traitements. Mais là encore, avec un gros bémol : « l'amélioration de leur état serait davantage liée à une moindre réaction au placebo, qu'à une réponse positive aux antidépresseurs ». A ses yeux, la conclusion qui s'impose est simple : « les patients dépressifs peuvent améliorer leur état sans recourir aux traitements chimiques ». Le sujet est extrêmement sensible, on s'en doute. D'autres travaux devront donc certainement venir confirmer ou infirmer ces conclusions. En tout état de cause, aucune décision visant à modifier ou suspendre un traitement antidépresseur ne doit être prise sans en avoir au préalable parlé avec son médecin car, en matière d'état dépressif, chaque situation est unique.. Université de Hull
|
|
|
|
|
|
|
|
C'est ce que montrent les résultats d'une étude menée par la Laboratoire de neuro-imagerie cognitive de NeuroSpin (CEA-Unité Inserm 562) à l'hôpital du Kremlin-Bicêtre. Ceux-ci viennent d'être publiés début février dans la revue Plos Biology. Rappelons que le "sens du nombre", que tous les êtres humains possèdent, quelles que soient leur culture et leur éducation, permet, par exemple, de percevoir en une fraction de seconde combien d'objets contient approximativement un ensemble. Des recherches fondées sur des méthodes comportementales ont montré, depuis une vingtaine d'années, que ce sens du nombre est déjà présent chez le nourrisson alors qu'il n'a que 5 ou 6 mois. Mais cette étude a permis aux chercheurs de mettre en évidence, pour la première fois, les zones cérébrales engagées dans le traitement des nombres chez des nourrissons de 3 mois. Pour ce faire, les chercheurs ont utilisé la technique de l'électro-encéphalographie (EEG) et mesuré l'activité électrique des cerveaux des nourrissons alors que ceux-ci observaient des images qui, pour la plupart, renfermaient un même nombre d'objets, identiques, certaines de ces images présentant néanmoins une variation du nombre ou de la nature des objets. Les chercheurs ont alors noté que les cerveaux de ces nourrissons réagissaient à ces changements. Précisons que l'EEG étant une technique ne permettant pas de repérer directement les aires corticales concernées, les chercheurs ont mis au point une méthode de reconstruction en 3D des zones cérébrales activées à partir de l'EEG. Ainsi ils ont pu noter que dès l'âge de trois mois, les régions du cerveau répondant aux changements d'objet ou de nombre sont distinctes, et que le cerveau du bébé est déjà organisé selon un principe ventral/dorsal de base. Le développement du sens du nombre se produit donc dans la continuité. Les résultats obtenus le soulignent. Ainsi, dès les premiers mois, le traitement du nombre est orienté vers des aires pariétales. Selon les chercheurs, c'est en se fondant sur ce sens des quantités que les enfants pourraient ensuite comprendre des concepts mathématiques plus élaborés, tels que l'arithmétique. BE
|
|
|
|
|
|
|
|
Dès la fin de la puberté, le vieillissement de certaines parties du cerveau humain est déjà initié. C'est ce qu'ont découvert des chercheurs de la clinique universitaire d'Aix-la-Chapelle dans le cadre d'une collaboration avec le Centre de recherche Jülich. Ces derniers ont passé au crible, millimètre par millimètre, le cerveau d'hommes sains, âgés de 18 à 51 ans, à l'aide de la technique d'imagerie médicale par résonance magnétique nucléaire (IRM). Un logiciel a été développé pour les besoins de cette étude afin de superposer les régions cérébrales des différents participants et de mesurer les différences observées. Une diminution du volume de certaines régions du cerveau impliquées, notamment, dans le pilotage des mouvements (au niveau du cervelet, du thalamus et des cortex sensoriel et moteur) a ainsi pu être identifiée chez le jeune adulte. De plus, le système limbique préfrontal, qui coordonne les processus d'actions complexes, serait également soumis à modification chez les sujets les plus jeunes de l'étude. Ce système est, par exemple, sollicité dans le cadre de la conduite d'une voiture, comme l'illustre Peter Pieperhoff du Centre de recherche Jülich. "Les conducteurs doivent combiner perception cognitive et coordination motrice, dans la mesure où ils doivent, par exemple, observer la circulation, intégrer les panneaux de signalisation, mais également activer les pédales d'accélérateur et de frein et maintenir la direction du véhicule". La présente étude s'inscrit dans le cadre du partenariat JARA (Jülich Aachen Research Alliance), mis en place il y a un peu plus de 6 mois, et destiné à intensifier la coopération en matière de recherche et d'enseignement entre l'Ecole supérieure polytechnique de Rhénanie-Westphalie d'Aix-la-Chapelle (RWTH) et le Centre de recherche Jülich. Au sein de ce partenariat, la section JARA BRAIN a plus particulièrement pour ligne de visée le développement de stratégies de prévention, diagnostic et traitement de pathologies psychiques et neurologiques. Les projets de cette section fédèrent les potentiels de médecins, psychologues, physiciens, biologistes, informaticiens et mathématiciens appartenant à 20 cliniques ou instituts distincts. Après avoir étudié le vieillissement cérébral chez des sujets sains, les chercheurs projettent, dans une seconde étape, de choisir pour populations cibles des patients atteints de pathologies neurodégénératives telles que les maladies d'Alzheimer ou de Parkinson. BE
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Les nombreux véhicules électriques présentés au salon automobile de Genève traduisent l'intérêt croissant des constructeurs pour cette solution à zéro émission de C02 qui devrait connaître un fort développement dès cette année. Le constructeur norvégien de voitures électriques Th!nk a ainsi présenté son premier modèle, "City", qui sera livré à partir d'avril. La production en série de cette petite voiture urbaine de 3,12 mètres, conçue pour deux places, vient de débuter. Le PDG de Th!nk a salué "l'accueil très positif" en Norvège où 10.000 commandes ont été enregistrées, et où la liste d'attente a dû être clôturée. Le constructeur a présenté à Genève le prototype d'une seconde voiture électrique, qui serait cette fois une cinq places. La réponse de la clientèle ne peut qu'encourager les grands groupes à accélérer leurs investissements dans le véhicule électrique, d'autant que les réglementations se durcissent régulièrement en matière d'émissions de CO2, considérées comme l'une des causes majeures de l'effet de serre. "Il y a aujourd'hui une demande assez forte", mais "sans offre" sur le véhicule électrique, constate le PDG de Renault-Nissan Carlos Ghosn. Le groupe a choisi "l'orientation stratégique" de développer "une offre massive" de véhicules électriques sur le marché mondial en 2012. Mais l'arrivée des premières voitures électriques du franco-japonais interviendra plus tôt, puisqu'une Nissan électrique sera lancée aux Etats-Unis dès 2010, nouvelle réglementation californienne oblige, a précisé M. Ghosn. Nissan présente à Genève son petit véhicule expérimental électrique Pivo2, dont les innovations comme les moteurs électriques dans les roues pourront être reprises ensuite dans les modèles courants, a assuré M. Ghosn. Lawrence Burns, vice-président de General Motors pour la recherche et le développement, prévoit de son côté la diffusion de "milliers" de véhicules électriques en 2011-2012, qu'ils soient propulsés par des batteries ou des piles à combustible. "Les deux technologies sont bonnes et elles doivent évoluer ensemble", explique-t-il. M. Burns souligne le faible coût de l'électricité dans certains pays, en prenant l'exemple de la France où elle est à 80 % d'origine nucléaire. Le responsable de GM estime qu'à terme "40 % des miles parcourus aux Etats-Unis le seront par l'électricité". Le groupe français Bolloré, qui expose à Genève son prototype Bluecar II, a conclu un partenariat avec l'italien Pininfarina pour produire des voitures électriques à quatre portes et quatre places. "Notre feuille de route est suivie scrupuleusement", indique Cédric Bolloré, directeur des activités industrielles, qui prévoit que les premiers modèles seront "en vente fin 2009". L'objectif est ensuite de produire 15.000 voitures par an à partir de 2012-2013. Le japonais Mitsubishi propose de son côté le prototype de sa mini-voiture électrique i-EV, fonctionnant avec une batterie lithium-ion et déjà en phase de tests au Japon. Mitsubishi prévoit de la commercialiser dès l'an prochain au Japon, puis en 2011 en Europe, selon un porte-parole. Pour Carlos Ghosn, il faut "remettre en cause" l'image traditionnelle de la voiture s'arrêtant à la pompe à essence pour faire le plein. "L'avenir, c'est peut-être une voiture et des points de chargement d'électricité", prévoit-il. AFP
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|