|
|
|
|
|
NUMERO 533 |
|
|
|
|
|
|
|
Edition du 05 Novembre 2009
|
|
|
|
|
Edito
La longévité humaine a-t-elle une limite ?
L'accroissement de l'espérance de vie a-t-elle une limite ? Dans les pays développés, celle-ci augmente en moyenne de trois mois chaque année depuis cent soixante ans. Mais, si l'on en croit une analyse publiée dans le Journal of population aging, l'avenir n'est pas écrit. Cet article qui recense les multiples facteurs influençant la longévité humaine, n'exclut pas que dans des pays comme les États-Unis où l'obésité est une véritable épidémie, l'espérance de vie puisse diminuer dans les prochaines décennies. En 1840, les Suédoises arrivaient en tête avec une longévité moyenne de 45 ans. Cette place est tenue aujourd'hui par les Japonaises avec une espérance de vie proche de 85 ans. En deux siècles, selon le démographe James Riley, la longévité humaine globale a beaucoup plus que doublé pour les hommes (elle est passée en moyenne de 25 ans à 65 ans) et presque triplé pour les femmes (de 25 à 70 ans). Rien ne dit que cette tendance va se prolonger indéfiniment. La question est pourtant importante. En effet, le vieillissement des populations conditionne toutes les politiques publiques, aussi bien le calcul de l'âge de la retraite que l'organisation du système de santé, voire l'aménagement des réseaux de transports afin de prolonger l'autonomie des personnes âgées. Les experts ont appris à se montrer prudents. Dans les années 1920, Louis Dublin, l'un des meilleurs statisticiens de l'époque, estimait que l'espérance de vie maximum des Américains ne pourrait pas jamais dépasser 64 ans. Ce plafond physiologique a explosé. En mai 2009, le Gerontology Research Group recensait dans le monde pas moins de 200 000 supercentenaires, des personnes ayant dépassé 110 ans. Avant les années 1950, l'accroissement de l'espérance de vie est généralement attribué à la réduction de la mortalité infantile. Après, il s'explique par l'augmentation du niveau de vie ainsi que toute une série de progrès en matière de salubrité, de nutrition, d'éducation, d'hygiène et de médecine. Le principal risque lié au mode de vie au cours du XXe siècle a d'abord été le tabac. «Les autres risques dans les pays riches sont une mauvaise alimentation, le manque d'exercice physique et la consommation excessive d'alcool», relèvent Sarah Harper et Kenneth Howse. Les chercheurs anglais rappellent que l'espérance de vie varie selon le niveau socio-économique. Mais sur ce point aussi, il faut se méfier des idées toutes faites. Une étude publiée dans les Comptes rendus de l'Académie des sciences américaine montre en effet que, durant la Grande Dépression qui a frappé les États-Unis en 1929, la longévité des Américains a fait un bond inattendu (Pnas, 29 septembre 2009). Elle est passée de 57 ans en moyenne en 1929 à un peu plus de 63 ans en 1932. À l'inverse, elle a diminué au cours des périodes de forte expansion économique avant la Grande Dépression et en 1936-1937. Pour les deux auteurs de l'étude, José Tapia Granados et Ana Diez Roux, de l'Université du Michigan, cette embellie pourrait notamment s'expliquer par une baisse de la consommation d'alcool et de tabac due au chômage ainsi qu'une diminution de la pollution industrielle. Une étude de l'université de Cambridge, publiée en 2008, a par ailleurs montré que les personnes adoptant quatre principes simples d'hygiène de vie -ne pas fumer, avoir une activité physique, manger cinq fruits ou légumes par jour et boire avec modération- voient leur espérance de vie croître de 14 ans. On voit donc que la marge de progression de l'espérance de vie est très importante, du moins en ce qui concerne les facteurs qui dépendent de nos modes de vie. Un récent rapport de l'INED rappelle que plus de 20.000 centenaires vivent aujourd'hui en France, chiffre qui devrait tripler d'ici 2050. Il y en avait 3.700 en 1990 et 200 en 1950. En outre, ce rapport confirme que, contrairement à ce que nous prédisent régulièrement certains prophètes de l'apocalypse, l'espérance de vie continue de progresser au même rythme en France, plus de trois mois par an. Dans une autre étude de l'INED « Une démographie sans limite ?« qui a fait grand bruit et suscite un débat passionné au sein de la communauté scientifique, deux chercheurs ont imaginé les conséquences planétaires d'une marche vers 150 ans d'espérance de vie. Avec 2,1 enfants par femme, une telle évolution permettrait de doubler l'effectif final de la population mondiale avant sa stabilisation. Mais le prix à payer serait évidemment un vieillissement démographique inouï : il n'y aurait plus que 14 % de jeunes de moins de 20 ans et 27 % d'adultes de 20 à 59 ans alors que 59 % de la population aurait 60 ans ou plus. Cependant, rien ne prouve que la fécondité soit elle-même destinée à se figer à 2,1 enfants par femme. Si la tendance à l'enfant unique se généralisait, non seulement la population serait vouée à disparaître en quelques siècles, mais entre-temps sa structure par âge vieillirait de manière encore plus spectaculaire : avec 150 ans d'espérance de vie, les moins de 20 ans ne seraient plus dans ce cas que 2 %, les 20-59 ans 7 % et les 60 ans ou plus 91 %. Dans une telle hypothèse, tout à fait plausible, 74 % de l'humanité serait centenaire ! On voit donc que la mutation démographique que va connaître l'humanité au cours de ce siècle va entraîner des conséquences sociales, économiques et culturelles incalculables et provoquer l'avènement d'une nouvelle civilisation radicalement différente de celle que l'homme a connue jusqu'à présent. La grande question n'est plus de savoir si une telle évolution est possible mais si elle est souhaitable et comment l'espèce humaine pourra, dans un délai de transition aussi cours à l'échelle historique, s'y adapter. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Partant du principe que les nouvelles technologies n'ont plus de secret pour les enfants d'aujourd'hui, les éditions Nathan publient un livre pour les neuf ans et plus qui se feuillette à l'aide... d'une webcam et d'un ordinateur ! Plus exactement, en filmant avec la caméra de son ordinateur certaines pages du livre, le lecteur fait apparaître à l'écran des animations en 3D virtuelle en rapport avec le contenu. Le livre est un album illustré expliquant le fonctionnement de nombreux d'objets de notre quotidien et de machines en tout genre. La chasse d'eau, les serrures, l'hélicoptère, le sous-marin, le téléphone mobile, la machine à traire les vaches, l'automobile, la domotique, l'ordinateur, la navette spatiale... En tout, 113 sujets. Les pages sont constituées de schémas, de dessins, de vues en coupe, commentés par de nombreux encadrés et légendes rédigés par un ingénieur des Arts et métiers et un professeur d'université. Comprendre comment ça marche tient ainsi à la fois du manuel et du beau livre à vocation pédagogique. Mais il a aussi une vocation plus ludique qu'il faut aller chercher sur Internet. Le livre n'embarque aucune technologie. Mais il faut télécharger une application de « réalité augmentée » sur le site Web du livre et avoir une webcam (ou installer celle fournie avec le livre dans la version distribuée en coffret). Nathan a choisi la technologie de la société française Total Immersion et propose des versions PC et Mac. L'installation est gratuite. Ensuite, tout s'enchaîne. Vous lancez l'application, la webcam s'allume, une fenêtre de visualisation s'ouvre. Il faut ensuite choisir des pages du livre munies d'un pictogramme fait d'un rectangle avec une étoile dans le coin supérieur droit. Braquez la caméra sur la page. Celle-ci apparaît logiquement dans l'écran de visualisation mais une animation en 3D surgit aussi par-dessus. Tout se fait automatiquement. Le logiciel analyse en effet le dessin, le reconnaît, le « décode » en quelque sorte (en fonction des formes, des couleurs), et va chercher le contenu qui est associé quand il y en a un. OINet
|
|
|
|
|
|
|
|
Les nouvelles technologies de l'information et de la communication jouent un rôle essentiel pour répondre à la problématique du maintien à domicile des personnes dépendantes. Dans le cadre d'une coopération entre l'équipe Trio et l'association Medetic, un concept de maison intelligente offrant un système de télésanté et téléassistance a été développé. L'objectif est de mettre au point une architecture originale qui intègre plusieurs réseaux de capteurs statiques et mobiles et de réseaux de caméras sans fil permettant le suivi médical à distance, l'assistance à la vie quotidienne et l'accès à des services multimédias. « Ces capteurs permettent de réaliser un suivi médical en ligne ou de donner l'alerte en cas de détection d'un événement anormal, une chute par exemple », explique Shahram Nourizadeh, doctorant de l'équipe Trio et ingénieur de Medetic, qui bénéficie d'une bourse Cifre pour réaliser ce projet. «Une interface simplifiée et ergonomique est adaptée aux utilisateurs et permet de gérer les différents services à partir d'un ordinateur, d'un PDA ou d'un écran de télévision.» Une autre caractéristique de cette architecture est d'être à la fois centralisée et répartie, ce qui évite les pertes de données en cas de panne. Les données brutes recueillies par les capteurs médicaux (tensiomètre, balance, etc.) ou les capteurs d'environnement domotique (détection du mouvement, de la présence, domotique, etc.) sont stockées localement et une synthèse est transmise vers un serveur distant associé à différents services (base de données médicale, une plate-forme de contrôle et d'accès à distance, centre d'appel). Cette architecture est aujourd'hui en partie implémentée dans une plate-forme expérimentale de Medetic, à Colmar, qui permettra de tester les solutions proposées par les chercheurs pour son fonctionnement optimal. La mise en place de cette technologie pose en effet de nombreux problèmes directement liés aux préoccupations de l'équipe Trio sur les réseaux et les aspects temps réel. « Il s'agit d'assurer une qualité de service satisfaisante malgré une grande diversité d'appareils et de protocoles de communication qui inclut Bluetooth, notamment pour la partie médicale (tensiomètre, balance, glucomètre), WiFi pour la liaison entre PDA, camera et PC, pour la domotique, etc. », souligne Ye-Qiong Song, chercheur de l'équipe Trio. « Nous nous appuyons aussi sur le nouveau standard de communication sans fil Zigbee qui représente une solution très intéressante dans ce contexte et sur lequel nous avons développé des mécanismes permettant de fournir la qualité de service temps réel tout en optimisant la consommation de l'énergie, préservant ainsi la durée de vie des noeuds de capteurs. » Les chercheurs travaillent actuellement sur une méthode fondée sur la logique floue pour obtenir une qualité de service dynamique, c'est-à-dire permettant d'optimiser la configuration du réseau en temps réel. En parallèle, ils développent également une solution de passerelle générique pour assurer l'interopérabilité des matériels. Autre enjeu scientifique pour les chercheurs : la définition d'une mesure de l'activité des occupants (actimétrie) qui permette une identification fiable des événements anormaux susceptibles de déclencher une alerte. Autrement dit, comment analyser et exploiter les données brutes provenant des capteurs de façon à juger correctement l'activité des personnes et éviter les fausses alertes ? En effet, les systèmes d'actimétrie existants sont statiques. Ils se fondent sur un délai maximum pour une activité (par exemple, 30 mn dans la salle de bain) et déclenche une alerte dès ce délai dépassé, ce qui explique le taux élevé de fausses alertes généré par ces systèmes. L'approche adoptée par les chercheurs de Trio est de combiner les données fournies par différents capteurs (la fusion multicapteurs), aussi bien médicaux que de domotique, afin de construire une évaluation plus fiable d'un événement anormal. Par exemple, si une personne a l'habitude d'ouvrir ses volets à 10 h et qu'arrivée cette échéance les volets restent fermés, les données fournies par d'autres capteurs (par exemple s'il y a du bruit dans la cuisine, aucun corps identifié au sol, la lumière s'est allumée, etc.) permettent de préciser la réalité du risque associé aux volets fermés. Là encore, la logique floue peut fournir un moyen adapté et performant de traiter les informations provenant de plusieurs capteurs pour décider si l'on est dans un état normal ou critique. L'ensemble de la technologie devrait être testée au cours de l'année 2010 et être intégré dans le projet Vill'Âge de l'association. « Les outils génériques que nous développons pour cette application pourront être utilisés pour le développement de la maison intelligente grand public et l'approche développée autour de la fourniture de la qualité de service temps réel dans les réseaux de capteurs pourra s'étendre à des systèmes de communication sans fil pour la surveillance de processus industriels par exemple », conclut Ye-Qiong Song. Inria
|
|
|
|
|
|
|
|
Google continue sa pénétration du marché mobile en signant un partenariat stratégique avec Orange. Une nouvelle étape après les accords avec les fabricants. Schématiquement, il s'agit de mettre à disposition des clients mobiles européens de l'opérateur en Europe les services mobiles de Google, un peu comme sous Android. Ceux-ci seront directement accessibles depuis l'écran d'accueil du mobile via une nouvelle application baptisée 'Google Mobile App'. A partir de ce point d'entrée, les mobinautes pourront accéder "non seulement au moteur de recherche Google, au portail mobile d'Orange, mais aussi à d'autres services comme Gmail, Google Maps, Google News", explique Orange dans un communiqué. Google Search sera ainsi directement accessible depuis l'écran d'accueil des mobiles (Android LG Eve, le HTC Tattoo et le HTC Hero) du Programme Signature d'Orange et figurera à côté des autres icônes spécifiques, comme par exemple celle de la TV d'Orange. Au Royaume-Uni et en France, le client bénéficiera, lors de ses recherches d'informations sur Google Search, de résultats issus du portail mobile Orange combinant les résultats de recherche des deux partenaires pour la première fois, ajoute le groupe français. Il faut savoir que les recherches sur l'Internet mobile ont augmenté de 120 % durant les 12 derniers mois, selon Orange. Pour Google, il s'agit ici d'un mouvement défensif afin d'imposer son moteur de recherche face à Bing de Microsoft ou Yahoo Search. ZDNet
|
|
|
|
|
|
|
|
D'un côté, un libraire en ligne américain désireux de vendre plus d'ouvrages, quel que soit le support. De l'autre, un géant japonais de l'électronique soucieux d'explorer de nouveaux marchés. A l'arrivée, deux nouveaux livres électroniques lancés pour la fin d'année : le Kindle d'Amazon, disponible dans le monde entier, et le Reader Touch Edition de Sony, lancé en France début novembre. Pour s'imposer, chacun a choisi une piste différente. Le premier joue la carte de la connectivité avec une puce 3G servant à télécharger livres et journaux sans être raccordé à un PC. Le second privilégie l'interface, avec un écran tactile permettant de le feuilleter d'un mouvement du doigt. Le Kindle, tout d'abord. C'est la star des livres électroniques, désormais disponible dans plus de 100 pays, dont la France. Un lancement mondial en trompe-l'oeil, car Amazon n'a pas daigné l'adapter aux différents pays auxquels il le destine. Pour les clients français, l'appareil est directement livré en provenance des Etats-Unis et le clavier en façade est en QWERTY. Les instructions sont en anglais, comme la majorité des ouvrages disponibles. Les non-anglophones auront tout intérêt à passer leur tour. Amazon a surtout voulu forcer la main aux éditeurs européens pour qu'ils rendent disponibles leurs ouvrages sur le Kindle, ce qu'ils rechignent encore à faire. Pourtant, le terminal a de quoi séduire. Léger et fin, il dispose d'un écran noir et blanc de 15,2 cm de diagonale à encre électronique, une technologie qui consomme peu d'énergie et fonctionne sans rétroéclairage. A l'usage, l'affichage est très confortable. Deux boutons situés à droite permettent de tourner les pages ou de revenir en arrière. Ces deux boutons sont également présents de l'autre côté de l'écran pour les gauchers. A droite de l'écran, un petit pavé sert à naviguer dans les bibliothèques. Il est possible de grossir la taille des caractères, de surligner des passages d'un texte et de taper des notes, bien que le clavier soit très petit. Mais le grand intérêt du Kindle réside dans sa boutique de téléchargement de livres, de journaux (dont « Les Echos » et « Le Monde », sur abonnement) et de blogs, accessible sans fil grâce à une puce 3G. Celle-ci se connecte au réseau de l'opérateur de télécommunications américain ATT. Une fois identifié sur Amazon, l'utilisateur peut télécharger rapidement un ouvrage, son compte bancaire est alors automatiquement débité et le livre stocké sur les 2 gigaoctets de mémoire. Les livres coûtent plus cher qu'aux Etats-Unis, car Amazon doit rétrocéder des coûts de communication plus élevés à ATT et appliquer la TVA française. Quant au dernier modèle de Sony, plus compact que le Kindle, il ne mise pas sur la 3G mais sur un écran tactile. Pour tourner les pages, pas de boutons : il suffit d'effleurer l'écran de droite à gauche ou de gauche à droite (le sens est configurable), comme sur un iPhone. Les annotations, elles, peuvent être portées directement avec un stylet, qui se range sur le côté de l'appareil. A l'usage, ce modèle est de loin le plus pratique du marché pour naviguer dans les menus ou consulter les ouvrages. Mais cette supériorité a une contrepartie : la dalle tactile assombrit un peu l'écran, au détriment du confort de lecture. L'encre électronique apparaît moins contrastée que sur le Kindle. Tactile ou 3G, quelle technologie est la plus prometteuse ? Assurément les deux, à condition que chacune progresse. C'est probablement quand ils fonctionneront tous sur les réseaux 3G français, et quand les écrans tactiles auront amélioré leur affichage, que les livres électroniques pourront séduire le plus grand nombre. Les Echos
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Etudier les changements qui surviennent en milieu aquatique nécessite un suivi régulier de l'environnement. Pour l'université du Michigan, il faut aussi être capable de disposer d'appareils mobiles, afin de couvrir la surface la plus importante possible. La solution pour y parvenir ? Des robots. Elle a développé une machine robotisée qui adopte l'allure d'un animal sous-marin et en imite la locomotion. Autre chose : chaque machine sera capable de se déplacer en bancs et de communiquer avec ses semblables. Notamment pour effectuer des manoeuvres coordonnées. Le système évoluera dans les environnements sous-marins et collectera via ses capteurs des données sur la température de l'eau, le taux d'oxygène ou encore la présence de polluants et d'algues toxiques. Les données collectées sont ensuite envoyées vers les stations d'accueil ou vers les autres membres du banc, via des réseaux sans fil. Selon les chercheurs, le robot permettra d'obtenir un bilan plus exhaustif de ce qui se passe sous les eaux. Pour se déplacer, il dispose de capteurs infrarouges lui permettant d'éviter les obstacles. Ses nageoires sont faites de polymères électro-actifs, capables de se déformer et de fléchir sous une impulsion électrique, à l'image du muscle d'un poisson. "Notre recherche avancera le développement des technologies bio-robotiques", précise Xiabo Tan, qui a participé au projet. "Nous cherchons aussi à développer un robot à prix modéré. Notre but est de permettre son utilisation pour le plus grand nombre d'applications possibles". Atelier
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L'énergie produite par une personne qui se déplace peut être réutilisée pour recharger un appareil portable, rappelle l'université de Duke. Un système intéressant mais limité : pour être fiable, il nécessite un mouvement constant. Pour répondre à cette contrainte, une équipe de chercheurs de la faculté travaille sur une technologie "non-linéaire" de production d'électricité. Le générateur portable qui capture l'énergie est notamment capable de convertir en électricité un spectre plus large des vibrations produites par le marcheur. La machine est faite en matériau piézoélectrique. La piézoélectricité permettant de créer une tension électrique sous l'action d'une contrainte mécanique. La nouvelle approche consiste à placer des aimants mobiles des deux côtés de l'appareil. En changeant la distance entre les aimants, il est possible de régler les interactions du système avec son environnement. Et du coup de produire de l'électricité sur un spectre plus large de fréquences. Selon les chercheurs, à l'avenir, le système générera suffisamment d'énergie pour rivaliser avec les batteries électriques des téléphones portables. "L'application pourra marcher avec de nombreux appareils nécessitant relativement peu de recharge", explique à L'Atelier Brian Mann, responsable du projet. Selon lui, cette technologie pourrait également constituer une solution de recharge pour les voitures électriques. "Au lieu de récupérer de l'électricité à des bornes spécifiques, les voitures utiliseront les vibrations de la route", précise le chercheur. Atelier
|
|
|
|
|
|
|
|
Il est possible d'économiser plus de 10 % de l'énergie électrique consommée en France en misant sur l'innovation, assure Claude Henry, Président de Leroy Somer. Il propose au gouvernement de mettre en place des incitations pour stimuler l'industrie électrique, et demande que des primes encouragent les industriels à utiliser des moteurs électriques de nouvelle génération. "Ce n'est pas parce que nous sommes en crise que nous devons mettre la recherche en chômage partiel". Un électron sur trois dans le monde est mis en mouvement par Leroy-Somer. Acteur incontournable de la filière électrique française avec ses 1300 millions d'euros de chiffre d'affaires et ses 8450 salariés dont 4000 en France, Leroy-Somer est un des leaders mondiaux en systèmes d'entraînement et alternateurs industriels. La filière électrique française est l'une des plus performantes au monde. L'industrie est un grand consommateur d'énergie, en particulier d'électricité ; dans l'industrie les moteurs électriques représentent à eux seuls plus des 2/3 de la consommation électrique totale. Sur un parc installé de 12 millions de moteurs en France, seul 1 % est constitué de moteur à haut rendement. Le taux de renouvellement annuel sur la totalité du parc est inférieur à 5 %. A ce rythme, il faudra plus de 20 ans pour renouveler l'ensemble du parc installé par des moteurs à haut rendement dotés des nouvelles technologies plus respectueuses de l'environnement. Le remplacement de ces moteurs à basse performance énergétique permettrait d'économiser plus de 10 % de l'énergie électrique consommée en France, soit 4 à 5 millions de tonnes de CO2, ou l'équivalent de ce que rejettent 3 à 4 millions d'automobiles sur un an. C'est un enjeu national. Figaro
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Lors de sa visite au Desoto Next Generation Solar Energy Center (DNGSEC) en Floride, Barack Obama a annoncé l'octroi de 3,4 milliards de dollars, provenant du fonds du plan de relance, à une centaine d'entreprises spécialisées dans le développement d'une énergie propre. Cette annonce intervient alors que la construction du plus grand champ de panneaux solaires aux Etats-Unis, commencée en 2008, vient d'être achevée. Le DNGSEC est prévu pour fournir 25 MW d'électricité, soit deux fois plus que la seconde installation de ce type aux Etats-Unis. Construite pour la compagnie d'énergie Florida Power & Light, avec 90.500 panneaux sur 700.000 m2 au sud de Tampa, elle a coûté 150 millions de dollars. Ce projet devrait pour commencer alimenter l'équivalent de 3000 maisons, cependant des permis ont déjà été déposés pour multiplier cette capacité par 12. Outre l'alimentation en électricité de 3000 maisons, ce projet a fourni jusqu à 400 emplois pendant le pic de construction et le comté de Desoto recevra 2 millions de taxes supplémentaires jusqu'à la fin 2010. D'autre part, sur les 30 prochaines années, l'installation devrait réduire les émissions de gaz à effet de serre de plus de 575.000 tonnes, ce qui selon l'U.S Environmental Protection Agency représente l'équivalent de 4500 voitures chaque jour. Elle devrait également réduire l'utilisation d'environ 200 millions de m3 de gaz naturels et de 277.000 barils de pétrole. BE
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
La polykystose rénale de l'adulte est une maladie génétique qui touche environ 60 000 personnes par an en France et pour laquelle il n'existe actuellement aucune thérapie médicamenteuse. L'hypertension artérielle est très souvent le signe révélateur de la maladie se caractérisant par le développement de kystes rénaux, hépatiques et pancréatiques. La polykystose affecte donc le rein mais aussi d'autres organes et en particulier, le système cardio-vasculaire. En effet, les patients présentent une fragilité artérielle. Si la maladie est responsable de 10 % des insuffisances rénales terminales, la complication la plus redoutable est liée au développement d'anévrismes intracrâniens pouvant entraîner une hémorragie cérébrale fatale. Selon des chercheurs du Cnrs, dirigés par Eric Honoré, à l'Institut de pharmacologie moléculaire et cellulaire (IPMC, Université de Nice Sophia Antipolis/CNRS) cette maladie serait liée au dysfonctionnement de deux protéines : les polycystines 1 et 2 (codées par deux gènes PKD1 et PKD2). Ils publient en effet, dans la revue Cell, une étude, démontrant que les polycystines 1 et 2 contrôlent la circulation des ions calcium entre la cellule et milieu extérieur. Chez les malades cette circulation ne se fait pas correctement : les mouvements calciques sont réduits, déclenchant la prolifération cellulaire et la formation de kystes. Ces travaux contribuent également à élucider le rôle physiopathologique des polycystines, permettant d'envisager de nouvelles stratégies thérapeutiques pour traiter la polykystose rénale. CNRS
|
|
|
|
|
|
|
|
Les facteurs de risque sont nombreux dans la maladie d'Alzheimer (MA). La composante génétique a été bien identifiée dans les MA à début précoce. Plusieurs gènes ont été identifiés il y a plus d'une décennie : préséniline 1 et 2, précurseurs de la protéine amyloïde. Par contre, dans la MA à début tardif, seul le gène de l'apolipoprotéine ε a été identifié comme facteur de risque. Pourtant, plusieurs études génétiques utilisant le criblage complet du génome (GWAS) ont tenté ces dernières années d'identifier des nouveaux gènes. Ces échecs signifient-ils le glas de ce type d'approche ? En fait non car ces études manquaient simplement de puissance. Ainsi, récemment plusieurs groupes ont publié des résultats positifs grâce à des études collaboratives de grande ampleur. Harold et collaborateurs ont ainsi publié dans Nature Genetics les résultats d'une étude effectuée à partir d'échantillons de 10 000 sujets sains et de 5 900 patients MA. Deux gènes codant pour des protéines ont ainsi été identifiés : CLU (clusterin ou apolipoprotéine J) et PICALM (phosphatidylinositol-binding clathrin assembly). Ces résultats ont été répliqués par les mêmes auteurs dans une autre population. Lambert et collaborateurs ont aussi retrouvé une relation avec CLU et un autre gène CR1 (complement component 3b/4b] receptor 1). CLU est un candidat sérieux car cette protéine est présente dans les plaques amyloïdes et exprimée dans le liquide céphalorachidien. [JIM
|
|
|
|
|
|
|
|
Des chercheurs de la "Mayo Clinic", à Jacksonville (Floride), ont réussi à éliminer des plaques amyloïdes dans des cerveaux de souris transgéniques utilisées comme modèles de la maladie d'Alzheimer, grâce à l'activation des cellules microgliales par de l'interleukine 6. Leur découverte, qui remet en cause le rôle des facteurs de l'inflammation dans la progression de la maladie d'Alzheimer, a été publiée dans le journal FASEB. Dans les cerveaux de patients atteints de la maladie d'Alzheimer, on observe une accumulation de dépôts de protéines, appelés plaques amyloïdes. Il s'agit d'agrégats de protéines extracellulaires, situés dans le cortex ainsi que dans d'autres régions du cerveau. Le composant principal de ces plaques est la protéine Aß (ou peptide bêta amyloïde), produite par clivage de la protéine précurseur APP. Le peptide Aß joue un rôle essentiel dans le développement de la maladie d'Alzheimer. Les mécanismes d'inflammation qui suivent le dépôt de ce peptide dans le cerveau, ont pour conséquences d'en faciliter l'accumulation et d'induire une neuro-inflammation. L'interleukine 6 (IL6) est une cytokine impliquée dans les mécanismes inflammatoires, et elle est retrouvée en grande quantité chez les patients atteints de la maladie d'Alzheimer. Cette surexpression de l'interleukine 6 est d'ailleurs une des caractéristiques pathologiques de la maladie d'Azheimer. Il a été montré que l'interleukine 6 stimule la réponse immunitaire inflammatoire et active les cellules microgliales, présentes autour des neurones. On estime que dans le cerveau, le nombre de cellules microgliales est de 10 à 50 fois plus élévé que le nombre de neurones (le cerveau comprend environ 100 milliards de neurones). Les chercheurs de la Clinique Mayo ont surexprimé l'interleukine 6 dans des cerveaux de souris transgéniques modèles de la maladie d'Alzheimer. Ils ont utilisé à cet effet une technique de transgénèse somatique, avec comme vecteur un virus associé aux adénovirus système, qui permet de faire exprimer un gène d'intérêt dans une partie définie du corps. Les résultats ont été inattendus. Les chercheurs ont observé une élimination des plaques amyloïdes dans les cerveaux de souris, en présence d'une surexpression de l'IL-6. Ils s'attendaient pourtant à ce que la surexpression de l'interleukine 6 déclenche une réponse inflammatoire importante dans tout le cerveau, par activation des cellules microgliales, et conduise à une augmentation des dépôts de plaque amyloïdes. Au contraire, l'inflammation induite par l'IL-6 a conduit les cellules de la microglie à éliminer les plaques amyloïdes, par un mécanisme de phagocytose. L'utilisation des médiateurs de l'inflammation (tels que IL6), pour manipuler les cellules immunitaires du cerveau, pourrait être un des moyens supplémentaires offerts aux chercheurs pour développer de nouvelles approches thérapeutiques pour le traitement de la maladie d'Alzheimer. BE
|
|
|
|
|
|
|
|
Des chercheurs américains ont identifié un élément naturel de l'huile d'olive vierge extra qui prévient la dégradation des cellules, qui provoque la démence des personnes atteintes d'Alzheimer. Cet antioxydant, l'oléocanthal, qui donne sa saveur poivrée à l'huile d'olive, empêche la destruction des synapses dans l'hippocampe, la zone du cerveau responsable de l'apprentissage et de la mémoire, la première à être touchée par la maladie. Les chercheurs n'ont pas établi clairement si une consommation accrue d'huile d'olive protégeait de la maladie d'Alzheimer, mais les résultats de l'étude pourraient déboucher sur de nouveaux médicaments pour prévenir et traiter la maladie d'Alzheimer, soulignent les scientifiques. "Ces découvertes pourraient aider à identifier des mesures de prévention efficaces et déboucher sur des traitements améliorés dans la lutte contre la maladie d'Alzheimer", déclare le Dr Paul Breslin, du Monell Chemical Senses Center à Philadelphie, et auteur principal de l'étude, dans un communiqué. L'huile d'olive est un élément essentiel du régime crétois, et certaines études ont montré que ce régime réduisait le risque de maladie d'Alzheimer, selon l'Institut national de santé britannique. Des études antérieures ont montré que des éléments naturels comme le curcumin, une épice anti-inflammatoire, le resvératrol, qu'on trouve dans le raisin et le vin rouge, et le ginkgo biloba peuvent prévenir la maladie d'Alzheimer. MS
|
|
|
|
|
|
|
|
Pour transmettre par portable des informations sur un patient, il est possible de faire appel à un path RFID contenat ces données. Et à un logiciel mobile capable d'en autoriser la lecture sur un téléphone portable. Toumaz Technologies travaille sur de tels systèmes, avec une différence : le patch qu'il a développé autorise un suivi en continu de l'état de santé d'un malade. Baptisé Sensium, il est constitué d'un appareil jetable qui se fixe sur la poitrine de l'utilisateur. Il se compose d'une puce en silicium qui contient des capteurs sans fil alimentés par de fines batteries. Il est capable de surveiller divers signes vitaux parmi lesquelles la température corporelle, le niveau cardiaque et la respiration. Données qu'il transmet ensuite à une base de données par radio fréquence. Les personnels soignants sont ensuite en mesure de télécharger ces informations à l'aide de leur téléphone portable ou d'un PDA. Ils sont donc avertis de tout changement d'état critique et peuvent détecter à l'avance des complications potentielles. Enfin, les données peuvent être automatiquement incorporées au dossier médical électronique des patients. Les avantages d'un tel système sont nombreux. Certains patients pourraient récupérer d'une opération chirurgicale depuis leur domicile plutôt que de rester à l'hôpital. Pour les autres, cela signifie plus de mobilité au sein du lieu de soin en leur permettant de ne pas rester en permanence reliés à des appareils de contrôle. Enfin, cela permettra à plus de patients de bénéficier de la surveillance de leur état de santé sans pour autant monopoliser une chambre. La durée de vie du patch est de quelques jours, au delà desquels il faut le remplacer pour éviter les risques d'infection. Les premiers tests cliniques sont menés en ce moment au sein de l'Imperial College NHS Trust. L'objectif est de comparer les données obtenues par les méthodes traditionnelles avec celle fournies par la puce. Les résultats seront disponibles fin décembre 2009. Atelier
|
|
|
|
|
Les premiers résultats obtenus en 2009 par Genclis montrent qu'il est possible de détecter 87 % des cancers du poumon "non à petites cellules" au stade où ils sont encore opérables, grâce à une prise de sang. D'autres études en cours concluent que 95 % des cancers du sein pourraient être détectés de cette façon à des stades précoces. Ces études ont été rendues possibles grâce à la constitution de banques de sérums et de tissus associés à des données cliniques "de grande qualité". Quelques centres pilotes auront accès dès le début 2010 à ces tests d'aide au diagnostic pour les patientes présentant un risque génétique ou familial de cancer du sein. Ces centres, qui seront réalisés avec le soutien de l'Institut national du cancer (INCa), ouvriraient des perspectives prometteuses pour diagnostiquer les formes précoces des cancers les plus fréquents. TS
|
|
|
|
|
|
|
|
Si la recherche en cancérologie progresse rapidement, elle le doit, entre autres, à l'apport sans cesse accru de la biologie. La prise en charge des patients va être profondément modifiée avec l'émergence de traitements personnalisés. Les Journées internationales de biologie, qui réunissent à Paris environ 10.000 spécialistes, ont cette année pour thème : la biologie des cancers, l'espoir de demain. Tout d'abord, l'apport actuel de la biologie moderne permet de remettre en question la notion de tumeur hormonodépendante. "Le cancer du sein, par exemple, n'est plus considéré aujourd'hui comme une entité unique puisqu'on estime qu'il s'agit d'au moins cinq maladies distinctes", explique le Pr Jean-Michel Bidart, de l'Institut Gustave-Roussy à Villejuif. Amorcée depuis 4-5 ans, une nouvelle démarche - la biopathologie moléculaire tumorale - est en train de se mettre en place en France. L'analyse moléculaire de la tumeur permet de la classer dans un groupe particulier, puis de choisir le traitement le plus approprié en fonction de son classement. À terme, c'est sur l'identification moléculaire des tumeurs que reposera le choix des traitements spécifiques ciblés. Pour le Pr Jean-Yves Pierga, de l'Institut Curie à Paris, la mise en évidence des cellules cancéreuses en dehors du site de la tumeur est un important champ de recherche en biologie. Pendant de nombreuses années, cette recherche a été concentrée surtout sur la moelle osseuse. Or, il est maintenant possible d'isoler, à partir d'un simple prélèvement de sang, les cellules cancéreuses circulantes, puis de les quantifier, voire de les analyser. Plusieurs centres ont mené des études cliniques pour préciser la place de cet examen en oncologie et son intérêt diagnostique, pronostique et prédictif de réponse aux traitements, en particulier dans le cancer du sein. "Les résultats sont encourageants, mais il reste, avant d'envisager une utilisation large de cet examen, à résoudre certains problèmes techniques, notamment en termes de spécificité, de sensibilité et de reproductibilité", précise le spécialiste. LP
|
|
|
|
|
|
|
|
Après plusieurs études étrangères, une enquête française a confirmé le rôle bénéfique de l'activité physique pour prévenir le cancer du sein. Nul besoin de se lancer dans un sport extraordinaire. Marcher d'un bon pas au moins trente minutes chaque jour, préférer systématiquement les escaliers, pratiquer une activité sportive une fois par semaine, diminuerait le risque de 40 %. Parmi les explications avancées : une diminution des strogènes circulants, des modifications des facteurs de croissance et de la fonction immunitaire. Après la ménopause, l'excès de poids semble favoriser les tumeurs du sein. Beaucoup de femmes prennent quelques kilos à ce moment-là, pour des raisons hormonales et souvent de moindre activité, mais attention de ne pas se laisser déborder... Des repas trop riches en graisses animales sont déconseillés. Vous avez tendance à manger de façon déséquilibrée ? Vous pouvez faire appel à un diététicien. Il vous donnera des conseils pratiques et des idées de recettes. Enfin, l'abus d'alcool semble augmenter le risque de cancer du sein. La règle : pas plus de 2 verres par jour et, si possible, pas tous les jours. TS
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Le salon de l'automobile de Tokyo a ouvert ses portes du 24 octobre au 4 novembre 2009 au Hall d'exposition de Makuhari dans la préfecture de Chiba. Les grandes vedettes de cette 41e édition sont incontestablement les voitures électriques. Nissan présente sa voiture électrique Leaf qui sera commercialisée à partir de 2010 aux Etats-Unis et au Japon (2011 pour l'Europe et la Chine). Cette voiture à cinq places est équipée d'une batterie Li-ion située sous les sièges passagers. Rechargeable en huit heures sur du 200 V, elle dispose d'une autonomie de 160 km. Après 10 minutes de charge rapide, le véhicule peut parcourir 50 km supplémentaires, 100 km après 20 minutes. Son moteur de 80 kW permet d'atteindre une vitesse de 140 km/h. Par ailleurs, l'arrière du toit a été recouvert de cellules photovoltaïques. Enfin, grâce à son téléphone portable et à un site Internet dédié, l'utilisateur peut connaître en permanence l'état de charge de la batterie, ou encore régler à l'avance l'air conditionné. La Leaf est également équipée d'un système d'inversion du fonctionnement du moteur qui permet de récupérer de l'énergie lors du freinage. Nissan présente également son concept de " zéro émission ". La marque envisage en effet une nouvelle manière d'organiser la conduite dans la ville, qui favoriserait la voiture électrique. Celle-ci pourrait être rechargée sur secteur chez soi ou sur son lieu de travail. Dans la ville ou sur les autoroutes, des voies de circulation seraient réservées aux véhicules électriques. Certaines de ces voies pourraient contenir, sous le revêtement, des bornes qui permettraient la charge des batteries sans contact avec le véhicule (par induction électromagnétisme) et sans que celui-ci ne n'arrête. Un tel système pourrait également être installé sur les places de parking. Même si cette technologie n'est encore qu'à l'étude, la marque avait présenté un modèle de démonstration il y a quelques mois. BE
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|