|
|
Edito
Galénique et squalénisation : deux concepts novateurs au coeur de la nanomédecine
Patrick Couvreur est un chercheur atypique au parcours exemplaire. Belge d'origine, il opte pour la France et le CNRS en 1984, grâce à l'accueil enthousiaste que reçut son concept - alors très original - de vectorisation des médicaments sous forme de nanoparticules. Aujourd'hui, il dirige, à l'Université Paris-Sud, une vaste unité spécialisée, unique au monde par son interdisciplinarité (l'UMR CNRS 8612). Patrick Couvreur est le 5ème lauréat français, en 50 ans, de la médaille « Host Madsen Medal » qui est la plus haute distinction remise par la Fédération Internationale Pharmaceutique (FIP). Cette médaille, attribuée tous les 2 ans, couronne un éminent scientifique qui s'est particulièrement distingué par ses travaux de recherche dans les Sciences Pharmaceutiques. Patrick Couvreur recevra cette médaille des mains du Président de la FIP, à l'ouverture du prochain congrès annuel de la FIP, qui aura lieu en septembre 2007, en Chine ; il présentera alors ses travaux lors de la conférence d'ouverture de ce congrès. Patrick Couvreur a également reçu, en juin 2006, l'un des prix de la 8ème édition du concours national d'aide à la création d'entreprises de technologies innovantes pour son projet de mise au point de nanomédicaments par squalénisation. Les recherches de Patrick Couvreur concernent principalement la vectorisation des médicaments (Voir article du CNRS, article et article du NCI ). Avec Peter Speiser (Ecole Polytechnique de Zürich), Patrick Couvreur a été le premier à montrer qu'il était possible d'utiliser des capsules submicroscopiques d'une centaine de nanomètres pour promouvoir la pénétration intracellulaire de médicaments (Febs Letters, 1977). L'équipe de Couvreur travaille sur la galénique, le mode d'administration des médicaments. Ces chercheurs développent un concept révolutionnaire qui est en train de bouleverser la médecine : l'idée, simple en apparence mais d'une redoutable complexité dans la réalité, consiste à encapsuler des molécules thérapeutiques dans des nanovecteurs (70 fois plus petits qu'un globule rouge) afin de multiplier leur pouvoir de diffusion et d'accroître de plusieurs ordres de grandeur leur efficacité. « Un comprimé d'un gramme de poudre présente une surface de quelques millimètres carrés ; le même gramme de substance éclaté en nanoparticules présente une surface d'environ 100 m2, explique Patrick Couvreur. Les nanomédicaments présentent donc une surface d'interaction avec les milieux vivants beaucoup plus importante que les formes pharmaceutiques traditionnelles.» Cette avancée conceptuelle a ouvert une vision tout à fait nouvelle de l'administration des médicaments mais, jusqu'à présent, elle n'était malheureusement pas directement applicable à l'homme car le polymère utilisé pour la préparation de ces nanocapsules n'était pas biodégradable et son administration risquait de provoquer de graves effets toxiques. Mais cet obstacle a pu être surmonté grâce à la conception de nanoparticules biodégradables préparées à partir de polycyanoacrylates d'alkyle, un polymère métabolisable (J. Pharm. Pharmacol, 1979). L'équipe de P. Couvreur a alors pu associer à ce nouveau vecteur biodégradable plusieurs agents anticancéreux, comme la doxorubicine. L'efficacité de ces nanovecteurs a alors été démontrée sur plusieurs cancers expérimentaux (métastases hépatiques et leucémies). En outre, ces nanoparticules de polyalkylcyanoacrylates chargées en doxorubicine se sont avérées capables de supprimer la résistance multidrogue qui fait que de nombreux cancers, d'abord sensibles aux médicaments, finissent par développer des résistances aux chimiothérapies. (British Journal of Cancer, 1997). Ces travaux ont abouti en 1997 à la création d'une jeune société, Bioalliance, qui emploie 60 personnes et est entrée en bourse en décembre 2005. En 2007, un essai clinique multicentrique de phase 3 a commencé. L'une des découvertes de cette équipe concerne les «analogues nucléosidiques». Ces médicaments qui interfèrent avec la synthèse de l'ADN sont prescrits en chimiothérapies anticancéreuses (gemcitabine, cytarabine) ou anti-VIH (AZT, ddI, ddC). Patrick Couvreur et son équipe ont en effet eu l'idée d'associer à la gemcitabine une molécule plus compacte, le squalène, cholestérol du requin. Cette squalénisation augmente considérablement l'effet thérapeutique de la gemcitabine. Cette approche innovante et prometteuse dans la conception et le développement de nouveaux médicaments anticancéreux et antiviraux fait l'objet d'un brevet conjoint entre le CNRS, l'Université Paris Sud et l'Université de Turin. Les molécules qui résultent de la squalénisation s'auto-assemblent spontanément sous forme de nanoparticules (de 60 nm à 300 nm) en milieu aqueux et ceci quelles que soient la nature du nucléoside et la localisation du couplage (sur la base ou sur le sucre). Ces nanosystèmes peuvent donc être administrés par voie intraveineuse et par voie orale. Les nanoparticules sont 5 à 7 fois plus actives que la gemcitabine seule sur les tumeurs et les leucémies résistantes aux traitements classiques, comme l'ont démontré des études menées in vivo. C'est ainsi que dans des modèles de souris portant la leucémie P388, le taux de survie du groupe de souris traitées par le dérivé 4-(N)-trisnorsqualenoylgemcitabine est, en effet, significativement allongé par rapport à celui du groupe traité par la gemcitabine seule. De plus, seul le groupe des souris traitées par le 4-(N)-trisnorsqualenoylgemcitabine comprend des survivants à long terme (70 % à 30 jours et 50 % à 60 jours). «Non traitées, ces souris meurent en quinze jours. Avec la gemcitabine-squalène, plus de 50 % sont toujours vivantes après trois cents jours, ce qui signifie qu'elles sont guéries», s'enthousiasme Patrick Couvreur. Un brevet a été déposé et l'équipe va lancer une start-up, Medsqual, pour développer des molécules squalénisées. Le concept semble aussi fonctionner pour des médicaments contre le SIDA et pourrait être appliqué à d'autres molécules. D'autres applications thérapeutiques concernent le traitement des infections intracellulaires (nanoparticules chargées avec de l'ampicilline) ou la possibilité d'utiliser ces nanotechnologies pour l'administration orale d'insuline et le traitement du diabète. Une autre avancée importante a été la conception de nanocapsules à contenu aqueux pour l'administration et le transport des acides nucléiques (gènes, oligonucléotides antisens et si RNA). Cette technologie est la seule qui permet actuellement de préparer des vecteurs non viraux sans avoir recours à des polymères ou des lipides dont l'administration à l'homme provoque des effets toxiques. En collaboration avec l'équipe de C. Malvy (IGR, Villejuif), il a été montré que l'encapsulation d'un oligonucléotide antisens ou d'un petit ARN interférant (siRNA, dont nous évoqué récemment le potentiel thérapeutique dans notre lettre 419) orienté contre un oncogène de jonction permettait de traiter efficacement un modèle expérimental du sarcome d'Ewing. «Les tumeurs ont été inhibées à 80 %, ce qui signifie qu'on a réussi à éteindre le gène», souligne Patrick Couvreur. Il est remarquable de noter que lorsqu'il n'est pas encapsulé, le même oligonucléotide/siRNA n'a pas d'activité sur cette tumeur pédiatrique qui résulte de la fusion entre deux gènes localisés sur des chromosomes différents. Cette observation ouvre des perspectives nouvelles dans le domaine de la manipulation génétique pour le traitement du cancer. L'équipe dirigée par P. Couvreur a également découvert que lorsqu'elles sont recouvertes par des polymères hydrophiles et flexibles (PEG), les nanoparticules de polycyanoacrylate d'alkyle peuvent diffuser dans le cerveau (CMLS, 2005) et cibler les cellules inflammatoires dans un modèle expérimental d'encéphalomyélite allergique (European Journal of Neuroscience, 2002). Cette observation ouvre des perspectives séduisantes pour l'administration de médicaments qui ne diffusent pas au niveau cérébral. Il est frappant de constater que ces progrès remarquables de la nanomédecine résultent d'une approche résolument transdisciplinaire et multiconceptuelle qui combine la galénique, le génomique, la biologie, la chimie et la physique. On voit donc clairement que c'est en décloisonnant des disciplines et des champs de recherche qui se sont longtemps ignorés, et en constituant des synergies novatrices, que l'on parvient à construire de nouvelles approches théoriques particulièrement fécondes qui, seules, nous permettront demain de relever les gigantesques défis auxquels nous allons être confrontés en matière de santé publique à cause notamment du vieillissement accéléré de notre population (cancers, maladies neurodégénératives) mais aussi de l'apparition de nouvelles maladies redoutables, qu'il s'agisse du SIDA ou, plus récemment de nouveaux virus mutés, provenant des animaux, comme la grippe aviaire. Il est dommage que cette dimension médicale des nanotechnologies, porteuse d'immenses et décisives avancées thérapeutiques dans une multitude de pathologies, ne soit pas davantage mise en avant et ne fasse pas l'objet d'une plus large diffusion auprès du grand public, ce qui serait certainement le meilleur moyen de rassurer nos concitoyens quant à l'utilité incontestable des nanotechnologies appliquées au domaine médical et de démontrer la faiblesse des arguments de ceux qui contestent, sur leur principe même, et de manière souvent irrationnelle, l'utilité des nanotechnologies. Nous voyons bien aujourd'hui, comme nous en avons eu la conviction dès 1998, année de naissance de notre Lettre, que les nanotechnologies constituent bien une extraordinaire source de progrès scientifiques, techniques et humains et contribueront de manière décisive demain, non seulement à soigner des maladies aujourd'hui encore incurables, mais plus largement à améliorer dans tous les domaines (santé, environnement, énergie, transports, logement) notre qualité de vie. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
Une jeune pousse de l'Université de Tsukuba, Visible Intelligence, a mis en place un système permettant de contrôler sur ordinateur des images en 3 dimensions en utilisant des sons et de simples mouvements des mains. L'originalité de ce système repose sur l'absence d'utilisation de gants ou autres objets de contrôle spécifiques et fonctionne avec une simple webcam. L'équipe de Tsukuba a développé un logiciel de traitement de données utilisant un algorithme permettant notamment d'extraire des informations des mouvements des mains. L'utilisateur contrôle alors les objets en 3 dimensions sans utiliser de souris ou de clavier. Ils peuvent par exemple provoquer la rotation d'un objet juste en faisant pivoter leurs mains, agrandir ou rétrécir l'objet en déplaçant les mains vers l'écran ou en les éloignant. La reconnaissance des sons permet quant à elle d'associer une opération à un claquement de doigts. BE
|
|
|
|
|
|
|
|
Alcatel-Lucent a annoncé dans une communication à la plus sélective des sessions de la conférence OFC/NFOEC d'Anaheim en Californie, que ses équipes de recherche aux Etats-Unis et en France ont établi un record mondial de transmission optique à 25,6 térabits par seconde (Tbit/s) sur une seule fibre, utilisant 160 canaux en multiplexage en longueur d'onde (WDM) - une bande passante suffisante pour transmettre les données de plus de 600 DVD par seconde ! Ces résultats surpassent de loin le précédent record de transmission de 14 Tbit/s, établi en septembre 2006. Alcatel-Lucent a pu s'appuyer sur les compétences de ses chercheurs dans l'optimisation de la densité spectrale d'information des réseaux optiques, par le multiplexage tant en longueur d'onde qu'en polarisation, et sur leur maîtrise générale de la couche physique des réseaux optiques. L'expérimentation, réalisée en collaboration avec l'Institut National des Technologies de l'Information et des Communications de Tokyo et le Sumimoto Osaka Cement de Chiba, au Japon, a permis de réaliser des transmissions à 25.6 térabits/s sur trois tronçons de 80 km chacun. La densité spectrale d'information obtenue est près de 10 fois supérieure à celle observée actuellement dans les systèmes commerciaux (0.2 à 0.4 bits/secondes/Hertz). Cette percée en termes de capacité de transmission de données s'ajoute à la longue liste de résultats de recherche marquants d'Alcatel-Lucent dans les réseaux optiques terrestres et sous-marins, parmi lesquels on compte le premier essai au monde de transmission au débit de 1 térabit par seconde, l'invention de la fibre à dispersion décalée non nulle (NZDSF), le premier franchissement de la barre des 10 Tbit/s pour l'acheminement de données sur une fibre optique unique, la plus importante capacité jamais transportée sur des distances transocéaniques (6Tbit/s), la transmission de 100 Gbit/s de données sur 2 000 km, l'introduction de l'amplificateur en bande L, la première fibre à grande surface efficace et le premier système commercial DWDM amplifié tout-Raman. Alcatel
|
|
|
|
|
|
|
|
Actuellement, les principes fondamentaux qui permettront le calcul quantique sont déjà bien compris mais la réalisation d'un ordinateur quantique est très difficile, notamment en raison des difficultés d'ordre technologique que pose le contrôle des états quantiques d'une collection d'atomes isolés. L'institut de traitement de l'information quantique de l'université d'Ulm a réalisé la première micropuce européenne utilisée dans des expériences qui permettront de développer l'ordinateur quantique du futur. Le physicien Stephan Schulz et le professeur Ferdinand Schmidt-Kaler ont développé le prototype d'une micropuce linéaire tridimensionnelle qui piège plusieurs atomes ionisés Ca+ de manière isolée. Chaque ion piégé représente alors un bit quantique, qui correspond à un bit d'un ordinateur actuel. Les bits quantiques permettront à l'ordinateur quantique du futur d'atteindre une vitesse de calcul incomparable aux performances actuelles et ainsi de résoudre des problèmes jusqu'ici non résolus. Dans la nouvelle micropuce, l'intérêt d'utiliser des ions (Ca+) est de pouvoir les localiser dans des "pièges" au moyen de champs électriques. Plusieurs segments de contrôle isolés permettent de séparer les ions de la chaîne d'ions ; la tension électrique appliquée permet ensuite de les déplacer d'un piège à l'autre de manière contrôlée. Pour les opérations de l'ordinateur quantique, il sera nécessaire d'utiliser des impulsions laser pour l'adressage des états quantiques des atomes ionisés ; les résultats du calcul pourront ensuite être lus de manière optique. Cette nouvelle micropuce est unique en raison du nombre de segments de contrôle. Elle dispose ainsi d'un secteur disjoint pour la mémoire et le processeur, ce qui contribuera à la performance du futur ordinateur quantique contrôlé par ions piégés. L'objectif est d'atteindre un stockage et un traitement d'environ 100 bits quantiques - c'est-à-dire une performance qui dépasse de loin celle des ordinateurs actuels. BE
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Une équipe du laboratoire Intelligent Systems de l'université de Tokyo, menée par le Professeur Yasuo Kuniyoshi a fait une démonstration a la presse, mercredi 28 Mars 2007, d'un Robot humanoïde bipède capable de soulever un paquet de 30 kg d'une étagère ou encore de tirer à lui en le décollant du sol par dessous des deux bras un mannequin de taille humaine de 66 kg. Le robot mesure 1,55m et pèse 70 kg. Il est très semblable en apparence à Daneel, le robot qui sait s'accroupir à partir de la position couchée et créé par la même équipe (voir le Bulletin Electronique Japon 288). L'humanoïde utilise son corps entier pour pousser ou tirer des objets grâce aux indications des capteurs, surtout dans les mains et les pieds, qui aident à déterminer la force nécessaire à fournir par les différents membres. Jusqu'à présent, les robots humanoïdes ne portaient que des poids allant jusqu'à 10 kg. Ces records de 30 et 66 kg ont été rendus possibles par la simulation puis l'implémentation dans le robot de mouvements humains dont l'évolution est contrôlée par environ 1800 capteurs de toucher répartis sur quasiment tout le corps du robot. L'équipe vise maintenant la combinaison de la bipédie avec le soulèvement d'objets pour que le robot puisse porter un objet de 30 kg tout en se déplaçant. BE Laboratory for Intelligent Systems and Informatics
|
|
|
|
|
|
|
|
La recette tient en deux ingrédients : une dose de vision électronique agrémentée d'une bonne part d'intelligence artificielle. C'est en combinant ces deux éléments que la société américaine Hyperactive Technologies a réussi à mettre au point son robot "chef de cuisine". Un robot qui a l'oeil sur tout ! Avec son système d'observation par caméra, Bob recense le nombre de véhicules présents sur le parking du fast-food. Ce résultat, corrélé à des statistiques sur les habitudes des clients, en fonction de l'affluence, permet alors à Bob de préconiser le déclenchement du grill à viande ou de la friteuse. En cuisine, les employés dialoguent avec lui à l'aide d'un écran tactile. Dans un premier temps, ils indiquent si oui ou non ils prennent en compte sa recommandation. Dans un second temps, ils l'informent quand telle ou telle opération est réalisée. À en croire Joe Porfeli, le PDG d'Hyperactive, en combinant étroitement les données de stationnement et de consommation, les produits ne sont cuisinés que lorsque c'est nécessaire, ce qui permet d'augmenter le niveau de satisfaction du client. « La nourriture est plus fraîche parce que vous préparez des petites quantités plus souvent », précise même Brandi Clanton, un propriétaire de deux fast-foods qui utilisent le service. « Avant Bob, on cuisinait principalement par approximation. » L'ambiance en cuisine s'en trouverait elle aussi changée. « Le remplacement des employés est relativement important dans le secteur, car les gens n'aiment pas travailler en criant », explique Joe Porfeli qui ne manque pas alors d'ajouter que grâce à son robot, « les cris disparaissent »... Pour mettre au point Bob, ses concepteurs ont dû intégrer différents critères. Le premier a été notamment de proposer une interface qui ne demande pas de connaissance poussée des ordinateurs. Il a fallu également pouvoir adapter Bob à son environnement. Un fast-food situé près d'une école par exemple n'a pas forcément le même rythme de fonctionnement qu'un autre établissement à proximité d'une gare ou d'un aéroport. Quant à l'aspect technique, l'observation électronique par caméra a été préférée au système classique de comptage par infrarouge, principalement pour deux raisons. D'une part, parce que ce dispositif ne fonctionne pas bien en cas d'intempéries. D'autre part, parce qu'il n'est pas capable de distinguer les véhicules entrants des véhicules sortants. À l'inverse, Bob peut apparemment identifier la couleur et la taille d'une voiture, même si statistiquement la performance ne semble pas avoir beaucoup d'intérêt. Une citadine pourra en effet donner lieu à quatre commandes, tandis qu'une camionnette avec une personne à bord ne représentera qu'un seul achat. Environ 115 restaurants rapides Zaxby, dans le sud-est des États-Unis, ont déjà recours aux services de Bob. La chaîne éviterait ainsi de gaspiller en nourriture chaque année l'équivalent d'environ 8 000 dollars. D'autres ont accepté de prendre le robot à l'essai dans leurs cuisines, sachant que Joe Porfeli estime, ou espère, que 125 000 établissements américains pourraient avoir recours à son système. News.fr
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Lorsque la vitesse du vent est trop élevée, les centrales éoliennes doivent être mises hors service afin d'éviter tout dommage : les pales sont mises en drapeau et le rotor est maintenu à l'arrêt par un frein mécanique. En cas d'orage ou de coup de vent, des avertissements préalables permettent de diminuer les risques. Le centre d'application des fibres optiques polymères (POF-AC) de l'université Georg-Simon-Ohm de Nuremberg développe ainsi des systèmes de "capteurs intelligents" afin d'assurer et d'augmenter la sécurité de tels systèmes. Le professeur Hans Poisel, directeur du POF-AC, et son équipe, souhaitent développer un capteur capable de mesurer puis d'informer sur l'état des pales du rotor par rapport à la force du vent. Pour cela, une fibre optique plastique est intégrée à la pale, il devient alors possible de calculer de façon précise la modification de sa longueur par rapport à la charge. M. Poisel explique que les capteurs en fibres optiques polymères (capteurs POF) qu'il développe, sont moins chers que les capteurs déjà existants. Ainsi, les opérateurs de centrale électrique devraient les mettre en place rapidement. La fibre optique utilisée est un matériau optimal pour ce type d'application. En effet, les capteurs en fibre optique ne craignent pas la foudre car ils ne réagissent pas au champ électromagnétique. Les principaux avantages sont le faible encombrement, la rapidité de la transmission d'information et la sensibilité très élevée des capteurs. BE Allemagne
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Aurait-on pu prévoir la canicule de 2003 qui a fait 70 000 morts en Europe ? Peut-être, si l'on en croit les recherches menées par Robert Vautard et Pascal Yiou, chercheurs au LSCE (laboratoire des sciences du climat de Saclay/CEA, CNRS). Leur étude montre que les canicules en France sont toujours associées à des hivers secs dans une large bande, allant de l'Espagne au nord de l'Italie en passant par les Pyrénées et le Midi de la France. « Ces conditions sont nécessaires mais toutefois pas suffisantes » précisent les chercheurs. Pour que la canicule s'installe véritablement, en effet, il faut en plus que la circulation atmosphérique soit bloquée durant l'été sur l'ouest de l'Europe. Or le blocage, lié à la présence d'un anticyclone, est très aléatoire et donc imprévisible. « En 2005, j'avais parié que l'été allait être caniculaire car l'hiver avait été sec en Espagne et dans le sud de la France. Juin a été très chaud comme prévu mais un flux nord et ouest s'est installé en juillet et il n'y a pas eu de canicule », raconte le chercheur. Selon lui, la probabilité est de 70 à 90 %. Pour traquer les signes annonciateurs de canicule, l'équipe conduite par Robert Vautard a d'abord sélectionné les dix étés européens les plus chauds au cours des 58 dernières années (1950, 1952, 1959, 1964, 1976, 1983, 1992, 1994, 1995 et 2003). Les chercheurs ont également analysé les données pluviométriques dans plus de cent sites en Europe lors des hivers ayant précédé les canicules. Ils se sont alors aperçus qu'à chaque fois, la sécheresse avait été très marquée dans le nord-ouest de la Méditerranée. La corrélation est confirmée par un modèle climatique. Le scénario est le suivant. Au début de l'été, la sécheresse et la chaleur remontent progressivement de la zone méditerranéenne vers le continent européen, poussée par des vents du sud anormalement secs. La canicule s'installe. Pour les climatologues, leur étude montre que l'humidité des sols en zone méditerranéenne joue finalement un rôle clé dans le maintien de températures relativement clémentes durant l'été. AGU
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une prothèse auditive électromagnétique a été implantée, pour la première fois en France, entre la peau et la boîte crânienne d'un patient né sans l'oreille gauche, a annoncé le 10 avril le Professeur Eric Truy, de l'hôpital Edouard Herriot à Lyon, qui a dirigé l'opération. La prothèse comprend un microphone, un processeur, une batterie (rechargeable à travers la peau) et un transducteur délivrant le message à l'oreille interne. Longue d'environ 5 cm et plate, elle a été implantée à la mi-décembre sur un jeune homme de 20 ans lors d'une opération guidée par ordinateur, a indiqué le Professeur Truy, lors d'une conférence de presse. De telles prothèses avaient déjà été posées sur des patients ne supportant pas les prothèses classiques parce que leur conduit auditif était trop infecté ou déformé par des opérations multiples. Mais c'est la première fois en France --seule l'Allemagne l'a précédée-- qu'elle concerne une personne souffrant d'aplasie auriculaire. Cette maladie congénitale, qui touche 1 pour 20.000 naissances, se définit par une absence d'oreille, une malformation du conduit auditif externe et de l'oreille moyenne. L'oreille interne étant normale, la surdité est dite "de transmission", c'est-à-dire que les sons parviennent avec une perte de l'ordre de 60 à 70 décibels. La plupart des malades subissent une opération de chirurgie esthétique vers l'âge de 8 ans, pour reconstituer une oreille par autogreffe, mais cela ne corrige pas leur audition. Pour eux, les prothèses totalement implantables posent un défi chirurgical : il faut en effet respecter l'oreille créée par chirurgie esthétique, ne pas toucher au nerf facial, et opérer dans un environnement inconnu, les malformations du conduit étant différentes d'un individu à l'autre, a expliqué le Professeur Truy. Pour cette première française, Pierre-Alexandre Nouveau, 20 ans, s'est porté volontaire car il souhaitait intégrer l'armée. Son oreille gauche a déjà recouvré environ 40 décibels. "Au premier allumage, en février, le son était assez brut, comme celui d'un talkie-walkie", a-t-il raconté à la presse. "Au fur et à mesure des réglages, et le temps que mon cerveau s'habitue, les sons sont devenus plus nets. Il reste encore une marge de progression, mais j'entends beaucoup mieux dans les endroits qui résonnent". Deux ou trois autres opérations de ce type, financées sur le budget "stratégie et opérations innovantes" du CHU --la prothèse coûte 2.500 euros--, devraient avoir lieu dans l'année à Lyon. L'objectif à terme est d'opérer les patients souffrant d'aplasie bilatérale (les deux oreilles, 20 à 30 % des cas), pour qui la surdité pose un problème plus lourd. France
|
|
|
|
|
|
|
|
Il existerait une « association claire et nette » entre le cancer du sein et la consommation d'alcool, même à faibles doses ! Voilà l'inquiétante conclusion d'une méta-analyse du Centre international de Recherche sur le Cancer (CIRC) de l'OMS, à Lyon. Après le pharynx et le larynx, la cavité buccale, l'oesophage et le foie, il apparaît donc que la consommation d'alcool pourrait aussi être à l'origine de 2 autres localisations tumorales : les cancers colorectal et, ce qui constitue une plus grande surprise encore, du sein. Le CIRC est formel. « Plus d'une centaine d'études épidémiologiques (...) ont mis en évidence de façon régulière et concordante une augmentation du risque parallèle à celle de la consommation d'alcool ». Pour le cancer du sein, 53 études portant au total sur 58 000 femmes ont conclu à une « association claire et nette » entre l'alcool et la survenue de la maladie. Ainsi, une consommation quotidienne de 50g d'alcool est-elle associée à une augmentation de 50 % du risque de cancer du sein. Plus inquiétant encore, une consommation régulière de 18g par jour serait également à l'origine « d'une augmentation modeste mais statistiquement significative ». Sachant qu'un verre de vin représente 12 g d'alcool, voilà une raison supplémentaire pour les femmes de ne pas dépasser les deux verres d'alcool par jour. CIRC
|
|
|
|
|
|
|
|
Une équipe médicale britannique est parvenue à produire une valve cardiaque à partir de cellules souches, ce qui constitue une première mondiale et marque une étape importante vers la production d'un coeur humain entier. Si les essais sur des animaux prévus dans l'année se révélaient positifs, ces valves de remplacement pourraient être utilisées pour des transplantations sur des personnes souffrant de maladies cardiaques d'ici trois à cinq ans ans, selon le journal « The Guardian ». L'équipe de Magdi Yacoub au Harefield Hospital de Londres a cultivé des cellules souches, extraites de moelle osseuse, pour produire un tissu qui fonctionne comme une valve d'un coeur humain. Jusqu'à présent, les scientifiques avaient créé des tendons, cartilages, ou vessies, mais qui n'ont pas la complexité du tissu des valves, explique le Guardian. Selon le professeur Yacoub, la perspective de créer un coeur humain à partir de cellules souches n'est pas utopique. "C'est un projet ambitieux, mais ce n'est pas impossible", a-t-il déclaré au Guardian. "Si vous me le demandiez, je dirais dix ans", a-t-il ajouté. Mais l'expérience a montré que les progrès aujourd'hui permettent des réussites importantes beaucoup plus rapides. Je ne serais pas surpris si ça arrivait plus rapidement qu'on ne pense." Selon l'Organisation mondiale de la santé, 15 millions de personnes sont décédées de maladies cardio-vasculaires dans le monde en 2005. Pour la seule Grande-Bretagne, on estime que les maladies cardio-vasculaires sont responsables de 200 000 morts par an et que le nombre annuel de valves cardiaques à remplacer avoisine les 10 000. Précision étonnante : le Professeur Yacoub s'est dit inspiré dans ses recherches par le célèbre sculpteur Antony Gormley, qui a fait don d'une de ses sculptures au Centre de recherche cardiaque que dirige le scientifique. « Pour avancer dans nos recherches, nous avons non seulement besoin de travailler en collaboration avec de nombreux spécialistes de différentes disciplines mais nous avons également besoin de l'art pour nourrir notre imagination et mieux comprendre les relations entre formes et fonctions, » a indiqué Yacoub, qui ajoute « La beauté fait partie de la science. » Article @RTFlash Guardian BBC
|
|
|
|
|
|
|
|
Une femme enceinte qui prend trop de kilos expose aussi son bébé à une prise de poids excessive : une nouvelle étude américaine fait apparaître que même les kilos jusque-là autorisés pendant la grossesse ne sont pas sans effet. Ces travaux, publiés dans le numéro d'avril de l'"American Journal of Obstetrics & Gynecology", s'appuie sur les recommandations élaborées en 1990 par l'Institute of Medicine, une organisaton privée non-gouvernementale qui conseille le gouvernement fédéral américain. Selon les résultats, les femmes qui avaient grossi sans pourtant dépasser la prise de poids autorisée présentaient quatre fois plus de risques d'avoir un enfant trop gros à l'âge de trois ans que celles qui avaient pris moins de poids que la normale. Que doit donc faire une femme enceinte ? Clairement, elle ne devrait pas prendre plus de poids que ce qui est conseillé, relève la responsable de l'étude, le Docteur Emily Oken, de l'école de médecine de Harvard. A ses yeux, il est encore trop tôt pour juger du poids idéal à prendre pendant une grossesse: moins que les chiffres recommandés ou simplement ceux situés au niveau le plus bas, cette dernière solution étant, selon elle, probablement sans danger. Le Docteur Oken juge toutefois prématurée toute modification des recommandations. D'autant que d'autres experts ont averti du danger d'une prise insuffisante de poids. Selon les recommandations officielles, la prise de poids doit dépendre de l'indice de masse corporelle (IMC) avant la grossesse. A titre d'exemple, les femmes ayant un IMC normal doivent prendre 12 à 17 kilos (25 à 35 livres). Celles dont l'IMC est plus élevé, qui sont plus lourdes à taille égale, doivent en prendre moins, à l'inverse de celles ayant un IMC très faible qui doivent en prendre plus. La nouvelle étude concernait 1.044 mères ayant un enfant de trois ans. Elle a permis de comparer le nombre de kilos pris par la mère avec l'IMC de son enfant. Le surpoids à 3 ans se traduit par un IMC supérieur de 95 % à celui des enfants du même âge et de même sexe. Le poids pris pendant la grossesse était supérieur aux recommandations pour la moitié des mères environ, conforme dans un tiers des cas, les 14 % de femmes restantes étant en-dessous du poids recommandé. Prendre trop de poids présente d'autres inconvénients : celui d'avoir du mal à le perdre et à devenir soi-même obèse. Celui aussi d'avoir besoin d'une césarienne pour accoucher, le bébé étant trop gros. Mais, à l'inverse, trop peu de poids pris au cours d'une grossesse peut conduire à un trop petit poids de naissance. Trouver le bon poids est une question d'équilibre, souligne le Docteur Oken. Et peu importe le poids de départ. Si on ne comprend pas encore pourquoi trop de poids chez la mère conduit à trop de poids chez l'enfant, on sait toutefois que les mères diabétiques ont tendance à faire de gros bébés, qui ont plus de risque de devenir trop gros au cours de leur vie. AJOG
|
|
|
|
|
|
|
|
Une enquête publiée à l'occasion de la 7e Journée nationale du sommeil indique qu'un Français sur trois est fatigué et que cette fatigue est souvent liée au manque de sommeil. D'après cette étude TNS Healthcare réalisée pour l'Institut national du sommeil et de la vigilance (ISV), 53 % des Français déclarent "avoir éprouvé le besoin de s'allonger la journée pour se reposer" au cours des 6 derniers mois. L'étude précise que nous dormons, en moyenne, 7h10 sur 24 heures. 54 % des personnes interrogées dorment entre 7 et 8 heures, 28 % dorment 6 heures ou moins, et 16 % dorment 9 heures et plus. Si 47 % des personnes interrogées estiment dormir moins qu'elles ne le souhaiteraient, presque autant (45 %) estiment dormir autant que nécessaire. Le président de l'ISV, le professeur Patrick Lévy, rappelle, en introduction de cette 7e édition, que la durée du sommeil est "cruciale pour le fonctionnement cérébral". L'insuffisance de repos induit en effet "un risque accru d'hypertension artérielle, de diabète et d'obésité". Toujours selon cette enquête, 17 % des Français sont somnolents et s'endorment dans de multiples circonstances. Le manque de sommeil est cité comme première cause de fatigue par 38 % de l'ensemble des personnes interrogées, et par 45 % des personnes fatiguées et 48 % des individus somnolents. En deuxième position, les conditions de travail sont citées comme cause de fatigue par 35 % des Français. Pour les Français somnolents ou les Français fatigués, le début d'après-midi serait le moment où la fatigue est la plus importante, alors que c'est la soirée qui est le moment où la fatigue se fait le plus sentir pour l'ensemble des personnes interrogées. L'irritabilité et le manque d'énergie sont cités comme conséquences principales de la fatigue, respectivement par 30 % et 29 % des personnes interrogées. 28 % des Français déclarent souffrir d'au moins un trouble du sommeil, une proportion identique à la précédente enquête réalisée en 2006. Seulement 19 % d'entre eux sont pris en charge. Le trouble majeur est l'insomnie pour 18 % des Français. 5 % déclarent souffrir du syndrome des jambes sans repos (sensations douloureuses dans les jambes qui réveillent ou empêchent de s'endormir, associées à des mouvements involontaires des jambes pendant le sommeil) et 5 % du syndrome d'apnée du sommeil. TFI
|
|
|
|
|
|
|
|
Un nouveau médicament antisida, le darunavir, associé à un autre antiviral, pourrait permettre d'élargir les solutions thérapeutiques pour les patients sur lesquels les autres traitements n'apparaissent plus efficaces, selon une étude confirmant son caractère prometteur. Pour les patients en échec thérapeutique, après de multiples combinaisons de traitements, la mise à disposition de nouveaux médicaments antirétroviraux (anti-sida) relève d'un besoin urgent, rappelle la revue Lancet. Le darunavir (auparavant appelé TMC114, nom commercial : Prezista) est une antiprotéase (anti-virus du sida ou VIH) destinée aux patients dont les traitements sont devenus inopérants. Cette nouvelle antiprotéase (des laboratoires Janssen-Cilag International/Tibotec) active contre les souches multirésistantes du VIH, est approuvée en Europe et aux Etats-Unis, pour être co-administrée avec une dose basse de l'antirétroviral ritonavir. L'étude internationale porte sur 110 patients recevant les doses recommandées du cocktail darunavir-ritonavir durant 48 semaines et 120 autres traités avec une autre antiprotéase, servant de comparaison. La combinaison darunavir-ritonavir montre sa supériorité sur le plan virologique (de la quantité de virus détectable dans le sang) et immunologique (augmentation du nombre de cellules sanguines appelées CD4, marquant une amélioration des défenses immunitaires de bon augure). Des résultats similaires avaient été obtenus après 24 semaines de traitement chez ces patients très immunodéprimés. Le Docteur Bonaventura Clotet (Barcelone, Espagne) et ses confrères ont mesuré la charge virale sanguine des patients après 48 semaines de traitement : près de la moitié (45 %) des patients sous darunavir présentaient une charge virale sanguine en-dessous du seuil détectable (moins 50 copies/ml) contre 10 % des patients prenant une autre antiprotéase (groupe comparatif). Par ailleurs, une réduction de la charge virale a été obtenue chez 61 % des patients sous darunavir contre 15 % chez les autres. Lancet
|
|
|
|
|
|
|
|
La maladie d'Alzheimer pose un véritable problème de santé publique, ce qui explique qu'elle fait l'objet de très nombreux travaux. Les enjeux de la recherche sont multiples : agir sur la cause de la maladie, améliorer les symptômes et faire le diagnostic précocement au stade prédementiel. Ce dernier objectif semble plus accessible à la communauté scientifique en raison du développement de nouvelles technologies : biomarqueurs du LCR, étude volumétrique en IRM de l'hippocampe et imagerie métabolique. La spécificité et la sensibilité des biomarqueurs et de l'IRM n'étant pas absolues, les espoirs se sont reportés sur le PET scan notamment après la mise au point par une équipe de Pittsburgh d'un marqueur isotopique de la protéine amyloïde, le 11C] PIB. Grâce à cette technique, il est devenu possible de visualiser du vivant du patient le dépôt de protéine amyloïde, clé du processus Alzheimer. Il faut cependant rappeler que les symptômes ne sont pas corrélés avec la topographie du dépôt amyloïde mais avec la diffusion des lésions intra neuronales, les dégénérescences neurofibrillaires. Peu d'équipes ont à leur disposition le [11C] PIB afin de vérifier la pertinence de ce marqueur. Les résultats du travail effectué par une équipe anglaise dans le but de corréler les données de ce type d'imagerie aux données neuropsychologiques et au métabolisme glucosé évalué en PET scan étaient donc très attendus. Dix-neuf patients avec une MA et 14 contrôles ont été inclus dans cette étude (âge moyen 65 ans). De manière surprenante, deux malades avec les critères cliniques de MA probable avaient un [11C] PIB PET scan normal. Chez les autres, la charge en protéine amyloïde était deux fois plus élevée que chez les contrôles dans les aires corticales associatives et le cingulum. Comme prévu, la corrélation avec les troubles cognitifs était modeste alors que la diminution de 20 % du métabolisme glucidique constatée dans les régions temporales et pariétales était corrélée avec le MMS, le rappel libre et la reconnaissance des mots. Ce travail confirme l'intérêt de cet examen chez des patients relativement jeunes mais il est peu vraisemblable que ce marqueur soit disponible dans les centres d'imagerie isotopique. Cependant, cet outil peut prendre une place importante dans l'évaluation des thérapeutiques anti-amyloïde et permettre d'individualiser des sous-groupes de patients. [JIM
|
|
|
|
|
|
|
|
Dans les organismes vivants, les protéines sont exclusivement constituées d'acides aminés de type "gauche". Cette sélection d'une seule des deux chiralités dans l'espace est une des grandes énigmes scientifiques, à laquelle physiciens, chimistes et biologistes tentent de répondre. En étudiant des peptides, assemblages relativement simples de deux acides aminés par des méthodes de spectroscopie en jet moléculaire couplée à une approche théorique, une équipe du CEA éclaire ce problème d'un jour nouveau. Les chercheurs ont observé que la géométrie des peptides dans l'espace différait grandement selon que l'on couple deux acides aminés "gauche-gauche" ou "gauche-droite". De plus, les peptides homochiraux, composés d'acides aminés de même chiralité (gauche-gauche) montrent une plus grande flexibilité que les chaînes hétérochirales (gauche-droite). Dans les protéines, longues chaînes d'acides aminés repliées sur elles-mêmes, l'homochiralité impose ainsi un repliement de moindre variabilité tout en conférant une plus grande flexibilité à l'édifice moléculaire. Or, la fonction de la protéine dans l'organisme ne dépend pas seulement de la séquence des acides aminés qui la composent mais également de son repliement spécifique. La chiralité du monde vivant peut alors apparaître comme une nécessité de par son rôle dans la conformation de protéines biologiquement actives. CEA
|
|
|
|
|
|
|
|
Les chercheurs qui étudient la fonction d'un gène chez un animal ou chez une plante ont depuis quelques années les moyens de bloquer temporairement ce gène. Les neurobiologistes rêvent de disposer d'un tel interrupteur pour actionner ou bloquer à loisir tel ou tel neurone, afin de bien comprendre son rôle dans cette machine incroyablement complexe qu'est le cerveau. Une nouvelle technique présentée dans la revue Nature par des chercheurs américains et allemands devrait répondre à leurs besoins. Karl Deisseroth (Stanford University, USA) et ses collègues de l'Institut Max Planck de biophysique (Allemagne) ont réussi à prendre le contrôle des cellules neuronales avec la lumière. Un rayon de lumière bleue et les neurones s'excitent. Un rayon de lumière jaune et les neurones s'éteignent. L'action de la lumière dure quelques millisecondes, comme lorsque le neurone s'allume ou s'éteint tout seul, et elle totalement réversible. Sur le nématode, l'effet de cette technique est spectaculaire : en fonction des bouffées de lumière, le ver gigote avec vigueur ou s'immobilise. Pour prendre le contrôle des neurones, les chercheurs ont inséré dans ces cellules des gènes produisant des protéines sensibles à la lumière. Ainsi le gène ChR2, issue d'une algue, code pour une protéine sensible à la lumière bleue et les neurones qui la produisent sont plus actifs lorsqu'ils sont exposés à cette lumière. Le gène NpHR, extrait d'une archéobactérie, produit, lui, une protéine sensible à la lumière jaune qui inhibe l'activité des neurones. Cet outil va permettre aux chercheurs de mieux comprendre les circuits neuronaux ; en effet, pour chaque action ou chaque pensée, les signaux électriques émis par les neurones forment des circuits complexes difficiles à débrouiller. Pour certaines maladies, cette technique permettra aussi de mieux voir quels sont les réseaux neuronaux défaillants, explique Karl Deisseroth. A plus long terme, les chercheurs espèrent que ce moyen de contrôle des neurones facilitera le traitement de certaines affections neurologiques comme la maladie de Parkinson ou l'épilepsie. Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Le mystère de la grande pyramide est-il enfin résolu grâce à la simulation numérique ? La septième merveille du monde, la grande pyramide de Khéops, aurait été construite de l'intérieur grâce à une rampe interne et la chambre du Roi par un système de contrepoids, selon l'architecte français Jean-Pierre Houdin qui a présenté cette théorie. Une théorie validée par la reconstitution en 3D. Conçue il y a près de 4.500 ans sur le plateau de Guizeh aux portes du Caire, la plus grande pyramide d'Egypte, 230m de côté et 136m de haut, demeurait une énigme malgré de nombreuses théories sur les méthodes utilisées pour sa construction, la plus répandue étant l'hypothèse d'une rampe extérieure... Aucune trace, aucune explication n'a été laissée par les Egyptiens de cette époque qui a vu naître toutes les pyramides du pays. Un architecte français, Jean-Pierre Houdin, sur une idée de son père ingénieur, a présenté à la Géode, à Paris, son explication de la construction de la grande pyramide de Khéops : "une rampe intérieure en spirale jusqu'au sommet". Jean-Pierre Houdin s'est appuyé sur les relevés de la pyramide réalisés par l'architecte Gilles Dormion puis a intégré tous les paramètres de l'époque : des outils en cuivre et en pierre (les Egyptiens ne connaissaient pas le fer), les matériaux utilisés (blocs de granit venus d'Assouan, à 900km de là, blocs de calcaire), les moyens humains et la situation du site (un plateau surélevé dominant le Nil). Après avoir convaincu Dassault Systèmes, qui lui apporte son soutien technologique dans le cadre d'un mécénat, l'architecte français a pu démontrer, après huit ans de travail, la probabilité de sa théorie grâce à la 3D industrielle. Dans le film présenté et disponible sur Internet, sa théorie de la construction de la pyramide de Khéops se matérialise sur une période d'une vingtaine d'années, durée du règne du pharaon Khéops (2.538-2.516 avant J.C) : utilisant la pente naturelle du site, les Egyptiens ("les premiers ingénieurs" de l'histoire pour Jean-Pierre Houdin) ont construit une première rampe extérieure, en pente douce, pour ériger les 43 premiers mètres de la pyramide puis une rampe intérieure en spirale courant sous les faces de la pyramide pour la terminer. Une rampe qui existerait encore aujourd'hui. Cette rampe était ouverte au niveau des angles de la pyramide afin de pouvoir faire tourner les blocs de pierre, qui étaient acheminés depuis le Nil sur des traîneaux (rondins de bois) tirés par l'homme. La rampe, qui tourne dans le sens inverse des aiguilles d'une montre, bénéficie d'une pente de 7 à 8 % permettant d'acheminer les blocs de pierre à la force humaine. La grande rampe extérieure, devenue inutile, est démontée au fur et à mesure et les blocs réutilisés. Parallèlement est construite la grande galerie (encore visible aujourd'hui) qui aurait servi pour la construction de la chambre du Roi, située à 43m au-dessus de la base de la pyramide et coiffée de cinq plafonds de granit, hissés par un système de contrepoids. Il s'agit de la deuxième théorie de Jean-Pierre Houdin. Une fois toutes ces données entrées dans l'ordinateur, Dassault Systèmes a simulé la théorie de Jean-Pierre Houdin avec les paramètres de la 3D scientifique, en remodelisant entièrement la pyramide et intégrant les paramètres : poids des matériaux, forces exercées, etc. L'équipe de Dassault qui a travaillé deux ans sur le projet a corroboré les idées avancées par l'architecte. De plus, des relevés de microgravimétrie, technique qui relève les différences de densité, réalisés par EDF, démontrent qu'il existe des creux dans la pyramide... Reste à confronter la théorie à la réalité. Soutenu par des égyptologues de renom, Jean-Pierre Houdin a l'intention de se rendre sur place et d'utiliser des méthodes non invasives pour confirmer son explication. DS DS
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|