|
|
|
|
|
NUMERO 608 |
|
|
|
|
|
|
|
Edition du 29 Juillet 2011
|
|
|
|
|
Edito
Maladie d'Alzheimer : le défi de la prévention peut être relevé
Le nombre de malades d'Alzheimer et des démences apparentées devrait presque doubler d'ici 2030 dans le monde, passant de 36 millions aujourd'hui à 66 millions, selon des estimations de l'association Alzheimer's Disease International. À l'heure actuelle, il n'existe toujours pas un moyen unique et fiable de détecter la maladie d'Alzheimer avant qu'elle ne soit parvenue à un stade avancé et ait provoqué des dommages irréversibles. La tomographie par émission de positons (TEP) ou Pet-scan et l'imagerie par résonance magnétique (IRM) peuvent diagnostiquer des changements au niveau du cerveau, mais ces procédures sont lourdes et coûteuses et ne sont donc pas envisageables pour du dépistage de masse.
Mais la recherche avance et à l'occasion du passionnant congrès international de l'Association Alzheimer qui s'est tenu à Paris du 16 au 21 juillet, la société IHD a présenté les premiers résultats cliniques d'un de ses tests de diagnostic sanguin de la maladie d'Alzheimer. La société strasbourgeoise, qui fêtera ses trois ans cet automne, développe deux tests de diagnostic. Le plus avancé, IHD-Amy, permet, en couplant une sonde peptidique fluorescente à un peptide bêta-amyloïde, d'évaluer la capacité d'interaction de ces complexes avec les globules rouges prélevés chez le patient.
Les résultats de l'étude présentée à l'AAIC, menée à partir de 108 échantillons sanguins, montrent une sensibilité du test de 83 % et une spécificité de 82 %. Ces résultats cliniques sont très encourageants et laissent entrevoir la possibilité d'un test sanguin simple, fiable et bon marché qui pourrait être utilisé à grande échelle. Le deuxième test développé par l'entreprise repose sur un autre biomarqueur de la maladie d'Alzheimer, le changement de conformation de la protéine kinase C (PKC) dans les globules rouges. Ces deux tests pourraient être autorisés en 2014.
A plus long terme, un simple examen de la rétine pourrait aider à identifier la maladie d'Alzheimer à un stade encore très précoce, avant que la personne atteinte ne manifeste les symptômes de la terrible maladie neurodégénérative, espèrent les auteurs d'une étude présentée au récent congrès international de l'Association Alzheimer. Cette étude réalisée sur 13 patients atteints de la maladie d'Alzheimer, 13 autres malades souffrant de troubles cognitifs légers et 110 personnes en bonne santé montre qu'il existe une différence spécifique de la taille des vaisseaux sanguins du fond de l'œil, entre les patients Alzheimer et les personnes en bonne santé. Cette différence a été confirmée par Pet-scan, qui permet de visualiser le dépôt de la protéine bêta-amyloïde sous forme de plaques.
Mais comme en matière de cancers ou de maladies cardio-vasculaires, la victoire contre cette terrible affection neuro-dégénérative passera par une meilleure connaissance des facteurs de risques et de prédisposition, qu'ils soient génétiques ou environnementaux. S'agissant des facteurs de risque liés au mode de vie, les chercheurs considèrent qu'ils contribuent à la moitié des cas d'Alzheimer dans le monde et un modèle mathématique élaboré par les chercheurs de l'Université de Californie (San Francisco), présenté à l'occasion de la Conférence internationale sur la maladie d'Alzheimer, montre qu'une réduction de 25 % de ces facteurs de risque modifiables pourrait prévenir plus de 3 millions de cas d'Alzheimer dans le monde. Pour une réduction de seulement 10 %, le gain potentiel serait déjà d'un million de cas. Cette étude a été publiée dans la revue Lancet Neurology.
Ces facteurs de risque sont, par ordre décroissant : le faible niveau d'instruction (19 %), le tabagisme (14 %), l'inactivité physique (13 %), la dépression (11 %), l'hypertension (5 %), l'obésité (2 %), le diabète (2 %). Autre facteur de risque qui vient d'être confirmé : les lésions cérébrales traumatiques, notamment à la suite d'accidents de la circulation, qui doubleraient le risque de troubles cognitifs et de démence. Les auteurs de cette étude remarquable ont été très étonnés de l'importance des modes de vie et habitudes dans le déclenchement de la maladie d'Alzheimer. D'autres études à grande échelle vont être menées pour évaluer l'effet d'une modification de ces facteurs de risque sur l'incidence la maladie d'Alzheimer.
Il est intéressant de souligner qu'en marge de cette conférence internationale, deux études distinctes publiées dans deux revues médicales britanniques mettent en cause l'utilisation des neuroleptiques et des antidépresseurs pour traiter les patients atteints de démence. La première montre que deux antidépresseurs parmi les plus prescrits pour des patients atteints de démence n'apportent pas de bénéfice, tout en causant des effets secondaires.
Pour cette étude publiée par Le "Lancet", le Professeur Banerjee a recruté des patients britanniques avec une probable maladie d'Alzheimer et souffrant de dépression. Ils ont été répartis en trois groupes d'une centaine de patients, deux d'entre eux recevant un antidépresseur (sertraline ou mirtazapine) et le 3e un placebo (sans principe actif). L'étude n'a pas révélé de différences dans la réduction de la dépression au bout de trois mois dans les différents groupes. En revanche, les patients ayant reçu un antidépresseur présentaient davantage d'effets indésirables que ceux ayant pris le placebo. Ces études confirment les recommandations de la Haute Autorité de Santé qui, en 2009, soulignait les risques d'une prescription excessive et inadaptée de neuroleptiques pour les malades de l'Alzheimer.
A la lumière de ces récentes avancées médicales et scientifiques, nous voyons donc qu'à côté des nouveaux outils de détection précoce qui se profilent et des nouveaux traitements en cours d'expérimentation, la prévention active contre la maladie d'Alzheimer doit devenir une priorité de santé publique en s'appuyant sur la réduction simultanée et synergique des facteurs de risques à présent clairement identifiés, qui sont responsables à eux seuls de la moitié de ces démences redoutables.
Il est frappant de constater à quel point l’adage vieux de 20 siècles "Un esprit sain dans un corps sain" reste d'actualité et trouve une résonance nouvelle grâce aux avancées les plus récentes de la médecine sur les causes de cette maladie. Dans ce domaine comme dans celui d'autres grands fléaux (cancer, maladies cardio-vasculaires) les progrès de la connaissance nous montrent qu'il ne faut pas tout attendre des avancées de la médecine et qu'il nous appartient de modifier nos modes de vie, de manière à préserver le plus longtemps possible notre "capital santé", tant sur le plan physique que cognitif.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
France Télécom vient de signer avec Free (Iliad) un accord pour cofinancer les réseaux de fibre optique, pour l'Internet à très haut débit, dans une soixantaine d'agglomérations situées dans des zones peu et moyennement peuplées, et annoncé discuter activement avec d'autres opérateurs.
L'accord signé avec Free porte sur "la soixantaine d’agglomérations dans lesquelles Orange a l’intention de démarrer les déploiements de la fibre en 2011 et 2012", a indiqué Orange, sans détailler la liste. Il permet de commencer le déploiement de la fibre en dehors des zones très denses "de manière rapide et économiquement raisonnable", s'est félicité Free. Cet accord porte à l'horizon 2020 sur 5 millions de foyers dans environ 1.300 communes, villes moyennes ou dans des zones rurales.
En réponse à un appel du gouvernement aux opérateurs à chiffrer leurs projets d'investissements dans la fibre optique, France Télécom s'était engagé en février à consacrer deux milliards d’euros d’ici 2015 au déploiement de la fibre optique. L'opérateur historique compte ainsi apporter l'Internet à très haut débit dans 3.600 communes, qu'elles soient urbaines ou rurales, avec une couverture de 10 millions de foyers en 2015 et 15 millions en 2020, soit près de 60 % des foyers français.
Free avait lui promis d'investir un milliard d'euros dans la fibre optique d'ici 2012.
Ni Orange, ni Free n'ont précisé les modalités financières de leur accord, qui ne modifie pas les plans d'investissements déjà annoncés par les deux groupes. L'opérateur historique et le trublion de l'internet ont longtemps été à couteaux tirés, mais depuis quelques mois, ils travaillent main dans la main sur plusieurs sujets. Ils ont ainsi conclu un accord en mars pour que Free, qui doit se lancer dans le mobile en 2012, puisse utiliser les réseaux mobiles d'Orange en plus des siens, garantissant ainsi à ses futurs clients une couverture nationale et un accès à la 3G, qui permet l'internet mobile.
France Télécom avait publié 2 jours avant la signature de l’accord les modalités de son "offre de gros" pour mutualiser les réseaux de fibre optique dans les zones peu denses. Le groupe "poursuit par ailleurs ses discussions de manière active et constructive avec les autres opérateurs intéressés", a-t-il indiqué.
Le gouvernement a saisi l'occasion pour appeler les deux autres opérateurs nationaux Bouygues Telecom et SFR à se lancer dans le cofinancement. "Je souhaite que d'ici la fin de l'année, les quatre principaux opérateurs aient signé des accords de coinvestissement dans les zones les moins denses du territoire", a réagi dans un communiqué le ministre de l'Economie numérique Eric Besson, en rappelant l'objectif de "2 millions de foyers équipés en fibre optique d'ici la fin de l'année", fixé par le gouvernement.
L'Arcep, le régulateur des télécoms, a prévu que, dans les zones très denses, c'est-à-dire les vingt plus grandes villes françaises, chacun des opérateurs devait déployer sa propre fibre jusque dans les habitations. En revanche, dans les zones où la population est plus clairsemée et l'investissement donc moins facile à amortir, les opérateurs peuvent s'associer pour construire des réseaux. Chacun reste toutefois libre de commercialiser des offres sous sa marque, et d'en déterminer le prix pour l'utilisateur final.
Orange
|
|
|
|
|
|
|
|
L'Arcep a publié les conclusions de l'observatoire des marchés des communications électroniques en France pour le 1er trimestre 2011. En additionnant le nombre d'accès à Internet à haut et à très haut débit, la France compte au total 21,8 millions de lignes (ADSL, câble, fibre optique...) à la fin du premier trimestre 2011. En une année, ce nombre a progressé de 1,5 million (+7,6 %), mais, de façon générale, le rythme de cet accroissement annuel a ralenti depuis 2007 d'environ 500 000 par an.
Les accès DSL continuent de représenter l'essentiel des connexions haut débit, avec 20,3 millions de ligne (95 %). Plus de la moitié de ces accès sont par ailleurs associés avec un service de diffusion de télévision (11,4 millions à la fin du premier trimestre 2011, ce qui représente près de six accès sur dix). Du côté du très haut débit, le nombre de lignes ouvertes a atteint 516 000 au mois de mars (+53,1 % par rapport à l'an passé).
Ces résultats ont conduit Jérôme Coutant, membre du collège de l'Arcep, à se montrer résolument "optimiste". Il a estimé "que la France n'est pas en retard" dans ce domaine. L'Arcep recense ainsi 1,135 million de foyers éligibles au FTTH (fibre jusqu'au domicile de l'abonné) au premier trimestre, dont 250 000 concernés par une offre de mutualisation.
L'Autorité des télécommunications souligne également les efforts des opérateurs pour déployer la fibre optique à travers le territoire. Jérôme Coutant évoque ainsi la pose de 10 000 kilomètres de fibre déployés à la fin du mois de mars 2010, dont la moitié par des opérateurs alternatifs. "Si l'on intègre le câble, on passe à plus de 6 millions de foyers éligibles au très haut débit, soit 20 % des lignes. C'est l'un des meilleurs scores en Europe !".
ARCEP
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Les instituts Cetim et CEA-List ont mis en commun leurs compétences en mécatronique pour concevoir un robot collaboratif ou « cobot ». Associant l’intelligence et l’adaptabilité des hommes à la force des robots, le « cobot » réalisé avec la société RB3D démultiplie l’effort humain pour l’assister dans les tâches industrielles pénibles et répétitives.
Développé et produit par la société RB3D à partir de sa technologie propre et de celles des deux instituts Carnot Cetim et CEA-List, le « cobot » est un bras mécatronique dédié à des tâches industrielles pénibles comme le brossage, le burinage ou encore la manipulation. L’opérateur manipule l’outil avec le bras instrumenté : « là où une opération de brossage réclame un effort de 20 kg, le ?cobot? ne demande plus qu’un effort d’un kilo », explique Serge Grygorowicz, président et fondateur de la société RB3D.
- Un robot dédié à l’effort
Les évolutions récentes de la robotique manufacturière permettent aujourd’hui une interaction directe « homme-robot ». Développées essentiellement pour des besoins de programmation simple et rapide, ces fonctions de pilotage interactif des robots industriels n’autorisent cependant pas de travailler en amplification d’effort. De plus, l’inertie de ces systèmes en rend le contrôle délicat, avec un impact important dans le ressenti de l’opérateur.
Pour relever ces défis de performance et dans le but de développer une nouvelle génération de robots industriels, le CEA-List a apporté son expertise en téléopération à retour d’effort, initialement développée pour l’industrie nucléaire. Il a ainsi participé à la conception d’un robot collaboratif ou « cobot » dédié à la génération d’effort. Un mode de commande intuitif, intégré au « cobot », amplifie l’effort de l’opérateur d’un facteur réglable de 1 à 50, en utilisant un unique capteur d’efforts. L’opérateur conserve ainsi une information quantitative du déroulement de la tâche par un retour d’effort paramétrable. L’inertie apparente et les autres imperfections éventuellement ressenties par l’opérateur (frottements par exemple) sont également grandement réduites par l’introduction du facteur d’amplification.
Le Cetim a contribué au projet en structurant la démarche autour de la conception mécatronique. Son soutien important, via les meilleurs experts du domaine, a été mis en œuvre pour la conformité du produit final aux directives européennes, tant au niveau méthodologique qu’en termes de support technique et de démarche de certification.
- La mécatronique au service de l’humain
Le « cobot », qui inclut une forte composante logicielle, s’intègre parfaitement dans la stratégie « mécatronique » de la société RB3D. La PME dispose en effet d’un atout important : « le fait d’être une jeune entreprise nous a permis de démarrer avec des collaborateurs qui ont tous une formation de mécatronicien », explique Serge Grygorowicz. « L’intégration mécatronique, qui se fait naturellement, nous permet de développer des outils intelligents, adaptés au domaine industriel, et qui ont notamment pour objectifs d’apporter à l’homme puissance et endurance dans ses gestes tout en limitant le risque de TMS (troubles musculo-squelletique) au travail ».
Les instituts Cetim et CEA-List, labellisés instituts Carnot depuis 2006, viennent de se voir décerner de nouveau le label Carnot pour une période de 5 ans. Cette reconnaissance traduit la vocation de recherche partenariale des deux instituts qui collaborent depuis de nombreuses années.
CEA
|
|
|
|
|
|
|
|
Pour la première fois, l'efficacité des nano-médicaments pour la protection des cellules du système nerveux après un accident vasculaire cérébral (AVC), a été démontrée. L'AVC est la deuxième cause de mortalité dans le monde. C'est une étude internationale, publiée sur la revue Pnas, qui démontre l'utilité de ces nano-médicaments. L'étude impliquait notamment l'Institut de neurosciences du Conseil National des Recherches de Pise (In-Cnr), l'Université de Florence et l'University College de Londres.
"Pendant un AVC, beaucoup de neurones endommagés activent une série de facteurs biochimiques qui causent à terme la mort des cellules nerveuses", explique Tommaso Pizzorusso, coordonateur de la recherche. "C'est en particulier une protéine, appelée Caspasi 3, qui provoque ce "suicide cellulaire". Cette protéine peut être inhibée efficacement par l'utilisation de petites molécules de RNA, appelées silencing-RNA (siRNA), extrêmement spécifiques et donc très avantageuses. Cependant, jusqu'à présent, une des principales limites à leur utilisation était due à la difficulté de les faire arriver à l'intérieur des cellules en quantité suffisante pour réparer les dégâts."
Après deux ans d'expériences sur des rongeurs, les chercheurs sont parvenus à surmonter l'obstacle grâce à l'utilisation des nanotechnologies. "Nous avons attaché les molécules de siRNA à des tubes de carbone de dimensions nanométriques (de l'ordre du millionième de millimètre)", poursuit le chercheur de l'In-Cnr et de l'Université de Florence, "nous les avons ensuite injectées dans la zone du cortex cérébral lésée et nous avons constaté que le nano-vecteur, une fois capté par les neurones, est en mesure de libérer en leur sein la quantité adéquate de médicament, réduisant ainsi la mort neuronale induite par l'AVC. Sur les cellules traitées, près de la moitié ont été sauvées et l'apparition de déficits fonctionnels a ainsi été notablement réduite. C'est la première fois que preuve a été faite de l'amélioration fonctionnelle grâce aux nano-médicaments.
Bulletins Electroniques
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Dans son bilan prévisionnel 2011 publié le 22 juillet, Réseau de transport d'électricité précise que pour compenser la baisse de la part du nucléaire dans l’énergie française, il faudrait un fort développement des énergies vertes et un renforcement du réseau.
Pour atteindre un objectif de 50 % d'énergique nucléaire en France en 2030, il faudrait que les énergies renouvelables représentent 37,8 % du mix énergétique français. Une part bien supérieure au scénario dit de référence qui tablait sur 28,5 %. Dans le détail, RTE estime que le parc éolien devrait s’accroître chaque année de 1 giga watt pour atteindre une puissance cumulée de 8 GW en 2013, puis 11 GW en 2016. Quant à la filière photovoltaïque, elle devrait bénéficier du nouveau dispositif de soutien pour atteindre 3 GW cumulés en 2013 et 4GW en 2015. La contribution de l’énergie hydraulique sera plus faible.
Selon RTE, la baisse de la part du nucléaire impliquerait aussi la création de dix gigawatts de capacités destinées à couvrir la demande au moment des pics de consommation. Dans le scénario de référence, la consommation devrait croître en moyenne de 1,1% d’ici à 2015 puis de 0,6% chaque année d’ici à 2030.
Pour la période la plus proche, entre 2013 et 2015, le rapport souligne que la sécurité d’alimentation électrique devrait être assurée. Mais dès 2016, selon le document, "un fort besoin de capacité de production ou d’effacement apparaît, que le futur mécanisme d’obligation de capacité prévu par la loi NOME devrait contribuer à satisfaire".
Le bilan prend notamment en compte les récentes décisions de l’Allemagne en matière nucléaire. Le pays a décidé de mettre fin au nucléaire en 2022.
L'Usine Nouvelle
Rapport
|
|
|
|
|
|
|
|
La mémoire à changement de phase (PCM pour Phase Change Memory) franchit une nouvelle étape de développement. Les scientifiques d'IBM Research à Zurich, en Suisse, ont démontré, pour la première fois, une technologie apte à stocker de façon fiable plusieurs bits par cellule pendant des périodes de temps prolongées. Un progrès de nature à booster l’attractivité de cette mémoire non seulement pour des produits grand public, comme les téléphones mobiles, mais aussi pour des applications professionnelles, comme le stockage de données d'entreprise.
Les scientifiques rêvent d’une mémoire universelle combinant les avantages de vitesse, d'endurance, de non-volatilité et de densité, qui viendrait remplacer la mémoire flash actuelle. La PCM est l’une des candidates. Les prototypes présentés jusqu’ici par Micron Technology ou Samsung stockent un seul bit par cellule, alors que les mémoires flash actuelles vont jusqu’à quatre bits par cellule.
La PCM se présente comme 100 fois plus rapide que la flash, tout en supportant plus de 10 millions de cycles d'écriture, contre au maximum 30 000 cycles pour la flash. En remplaçant la mémoire vive Dram, l’ordinateur peut démarrer instantanément et conserver les données lors des coupures de courant. Pour réaliser leur démonstration, les scientifiques d’IBM ont utilisé des techniques de modulation et de codage avancées qui atténuent le problème de dérive à l’origine des erreurs de lecture lorsque plusieurs bits sont stockés par cellule.
La PCM exploite la variation de résistance d'un matériau lorsqu’il passe de l’état cristallin (avec une faible résistance) à l'état amorphe (avec une haute résistance) sous l’effet d’une tension électrique. Ces deux états représentent les deux états binaires de l’information. Mais les scientifiques d’IBM exploitent ce phénomène pour stocker, non pas un bit mais plusieurs bits par cellule. Ils ont utilisé quatre niveaux de résistance distincts pour stocker les combinaisons de bits "00", "01" ''10" et "11 ". La puce de test a été fabriquée en gravure de 90 nanomètres selon le procédé CMOS banalisé dans la microélectronique. IBM n’en précise pas la capacité.
Industrie & Technologies
|
|
|
|
|
|
|
|
Une équipe de l’Université de l’Oregon, en partenariat financier avec le département de l’énergie des États-Unis et l’Institut Daegu Gyeongbuk des Sciences et des Technologies en Corée du Sud, a mis au point une technologie qui pourrait permettre de fabriquer des panneaux solaires en utilisant la technique d’impression par jet d’encre. Les cellules photovoltaïques ayant les plus hauts rendements sur le marché utilisent un alliage dit CIGS pour « cuivre, indium, gallium et sélénium ».
Cet alliage est issu de la chalcopyrite, une espèce minérale conductrice d’électricité. Les ingénieurs ont réussi à créer une encre à base de chalcopyrite, qui peut directement être imprimée sur un support. Premièrement, cette nouvelle technologie permettrait de réduire de 90 % la quantité de déchets produits avec les technologies actuelles. De plus, certains métaux lourds utilisés comme l’indium sont rares et difficiles à exploiter. Conséquemment, le fait de réduire sensiblement la quantité de déchets produits réduirait sensiblement les coûts de production. Deuxièmement, une couche de CIGS de 1 à 2 microns peut capter la même énergie solaire qu’une cellule photovoltaïque de 50 microns à base de silicium.
La nouvelle technique à jet d’encre permettrait de créer des cellules possédant un facteur de conversion de l’énergie de l’ordre de 12 %, un très bon rendement compte tenu de la finesse des futurs panneaux. Une des applications les plus prometteuses serait le fait de pouvoir littéralement « imprimer » les matériaux composant les toitures avec cet alliage. Une révolution est en marche dans le monde des cellules photovoltaïques.
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
Aujourd'hui, les batteries utilisant la technologie lithium-ion sont les seules capables de répondre aux besoins de l'automobile électrique, ceci en terme de performance comme de faisabilité industrielle. Ces batteries ont été développées pour les besoins de l'électronique portable (téléphone, ordinateurs) mais à y regarder de plus près, elles ne présentent pas toutes les qualités requises pour être utilisées massivement dans l'automobile. Elles utilisent un composé inflammable et onéreux : le cobalt.
Petit rappel. Le fonctionnement d'une cellule de ces batteries repose sur la circulation de l'ion Lithium entre deux matériaux : les électrodes (l'une positive, l'autre négative). Cette circulation génère un courant et le processus est réversible permettant ainsi la recharge. Et dans le cas des batteries Lithium-Ion actuelles, c'est l'électrode positive qui est constituée d'oxyde de cobalt.
Pour s'affranchir des problèmes de sécurité qu'il peut engendrer, tous les constructeurs se tournent donc vers une alternative, un autre matériau pour recouvrir cette électrode. En France, le Centre de Recherche sur l’Energie Atomique et aux énergies alternatives (CEA), au sein de son département Liten (Laboratoire d’Innovation pour les Technologies des Energies Nouvelles) planche sur ce sujet pour des questions évidentes de compétitivité nationale. Car si les japonais et coréens sont dominants sur la technologie actuelle, de nombreux autres acteurs, chinois, européens ou américains voient l'occasion de prendre une place plus importante sur ce marché à travers le basculement de technologie qui se profile. L'enjeu est d'autant plus important que le coeur de métier des constructeurs automobiles va se déplacer, avec l'avènement de la voiture électrique, du moteur, vers les batteries.
Pour cette rupture technologique nécessaire, le CEA a ainsi privilégié le phosphate de fer lithié. Premier avantage, ce minerai a un coût nettement inférieur (1/3 de celui du cobalt) et surtout, il ne chauffe pas et présente donc moins de risques. Mais ses performances théoriques sont inférieures, c'est-à-dire que la densité d'énergie de chaque cellule sera moins importante. En revanche, grâce à l'absence de systèmes nécessaires à réguler sa température (puisque les cellules ne chauffent pas), il limite ce handicap énergétique.Concrètement, un pack de batterie Lithium-ion Cobalt présente une densité de 110 Wh/kg et la technologie phosphate de fer 100 Wh/kg.
C'est dans ce contexte que le CEA s'est doté de moyens financiers conséquents et a développé une approche sans équivalent, consistant à travailler sur toute la chaîne de la batterie. De l'extraction de la matière première à la gestion électronique. Florence Mattera, chef du département transport au CEA explique «Les annonces de record de performance en matière de batterie sont quotidiennes mais elles sont rarement applicables dans un contexte industriel ». La démarche globale du CEA vise ainsi à s'assurer de la viabilité de la technologie choisie et de remettre une solution quasiment clé en main au partenaire industriel. En l'occurrence, il s'agit de Renault. Le constructeur français, très investi dans l'électrique proposera très prochainement des véhicules dotés de batteries Lithium-Ion, fournies par la co-entreprise de Nissan et NEC, utilisant du Manganèse. L'objectif est de se tourner vers la technologie développée par le CEA d'ici 2015.
Cartech
|
|
|
|
|
|
|
|
L'Association de l'énergie éolienne de l'Europe (EWEA) a annoncé il y a quelques jours ses stratégies 2020, 2030 et 2050, pour répondre aux engagements de l'Union européenne (UE) à réduire les émissions du gaz à effet de serre de 80 à 95 % d'ici à 2050. Ces stratégies seront bientôt publiées dans un nouveau rapport de l'EWEA sur la contribution substantielle de l'éolien à la sécurité énergétique de l'Europe, à la réduction des émissions du CO2 et à la création de l'emploi, avant la publication cet automne de la feuille de route de l'énergie 2050 par la Commission européenne.
Selon un communiqué de l'EWEA, l'UE triplera sa capacité éolienne en 2020, pour atteindre une puissance installée totale de 230 gigawatts (GW), soit 15,7 % de la demande de l'UE en électricité. Il s'agit de 190 GW onshore et de 40 GW offshore. Vers la fin de l'année dernière, l'UE disposait de 84 GW d'énergie éolienne, soit 5,3 % de sa demande en électricité. En 2030, l'UE pourrait avoir une puissance installée totale de 400 GW, soit 28,5 % de sa demande en électricité, dont 250 GW onshore et 150 GW offshore. Le rapport prévoit également que l'éolien devrait couvrir 50 % de la demande de l'UE en électricité en 2050, avec une puissance installée totale de 735 GW, alors que l'éolien offshore (460 GW) dépassera l'onshore (275 GW).
"L'EWEA souhaite que 194 milliards d'euros soient investis dans les parcs éoliens onshore et offshore au cours de cette décennie", a déclaré le chef de l'EWEA, Christian Kjaer. "L'investissement annuel dans l'industrie éolienne de l'UE doublera de 13 milliards d'euros en 2010 à 27 milliards d'euros en 2020. Ce sera une contribution très substantielle aux engagements de l'Europe à réduire les émissions de gaz à effet de serre, en suivant le calendrier établi par la communauté scientifique", a-t- il dit.
EWEA
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Les astronomes américains avaient braqué le télescope Hubble sur la planète naine à la recherche d'anneaux. C'est une quatrième lune qu'ils ont finalement découverte.
Les astronomes de la Nasa cherchaient des anneaux, ils ont décroché une lune. En braquant le télescope spatial Hubble vers Pluton, les ingénieurs espéraient en effet débusquer des disques ténus de matière. Ils ont finalement découvert, avec surprise, un quatrième satellite naturel à la planète naine, déchue de son rang de 9e planète du système solaire en 2006. Les premières observations du 28 juin ont été confirmées par des photos prises le 3 et le 18 juillet.
Le nouveau venu, provisoirement baptisé P4 en attendant d'être reconnu par l'Union astronomique internationale, ne mesure que 10 à 30 km de diamètre. Pour l'observer à cinq milliards de kilomètres de distance, il a fallu un temps de pose de près de trois heures à Hubble. «C'est une découverte fantastique», s'est enthousiasmé Alan Stern, principal instigateur de ces travaux.
À titre de comparaison, le principal satellite de Pluton, Charon, découvert en 1978 à l'aide d'un télescope terrestre, fait lui 1200 km de large (deux fois plus petit que Pluton d'un diamètre de 2300 km). Deux autres satellites, Byx et Hydra, ont quant à eux été découverts en 2005 par Hubble. Ils ne font que 30 à 70 km de diamètre mais brillent déjà bien plus que leur «petit frère» passé inaperçu jusqu'à présent.
- La sonde New Horizons survolera Pluton en 2015
Les chercheurs américains ont mené ces travaux dans le cadre des travaux préparatoires au survol du système plutonien en 2015 par la sonde New Horizons. Celle-ci est partie début 2006 à une vitesse de 75.000 km/h. et s'est approchée des 100.000 km/h depuis son passage près de Jupiter début 2007. Lorsque la sonde survolera Pluton, les communications mettront neuf heures à arriver en se déplaçant à la vitesse de la lumière. Cela donne une idée de la distance qui sépare la Terre de ces petits astres et rend plus impressionnante encore la performance de Hubble.
Les astrophysiciens espèrent que les analyses réalisées par New Horizons permettront de mieux comprendre comment le système planétaire plutonien s'est formé. Les chercheurs pensent que c'est une collision avec une planète dans les premiers instants du système solaire qui en serait l'origine. De la même manière que notre Lune pourrait résulter d'un choc entre la Terre et Mars il y a 4,4 milliards d'années.
Le Figaro
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Une nouvelle recherche menée par le Trinity College Dublin, en Irlande, suggère que le sol libère du méthane et de l'oxyde d'azote, des gaz à effet de serre, lorsque l'air présente une concentration élevée de CO2. Les résultats, publiés dans la revue Nature, sont partiellement financés par une bourse des actions Marie Curie au titre du septième programme-cadre (7e PC). D'après les chercheurs, on a surestimé la capacité des écosystèmes terrestres à atténuer le réchauffement planétaire.
La Terre subit encore les actions de l'homme, principalement en raison des changements au niveau de l'utilisation des sols, de la déforestation et de la combustion des carburants fossiles. Cette activité entraîne l'augmentation des émissions de CO2 dans l'atmosphère, qui, à leur tour, amplifient le réchauffement planétaire. L'augmentation des taux de CO2 favorise la croissance végétale, puisque l'assimilation de carbone par les plantes peut renforcer l'absorption de carbone par le sol ainsi que son stockage Ainsi, jusqu'à récemment, les chercheurs pensaient que les écosystèmes terrestres contribuaient à la réduction des taux atmosphériques de CO2 et ralentissaient le réchauffement. Cette étude révèle que ce n'est pas le cas. Le forçage radiatif des écosystèmes terrestres n'est pas uniquement déterminé par leur absorption et par la libération de CO2. Les émissions de méthane et d'oxyde d'azote en provenance du sol peuvent également se produire à des concentrations atmosphériques plus faibles que le CO2, mais les ramifications à l'échelle mondiale sont considérablement plus importantes, à savoir 298 fois plus élevées pour l'oxyde d'azote et 25 fois plus pour le méthane.
«Ces informations sur notre atmosphère en évolution signifie que la nature ne suffit pas à ralentir le réchauffement planétaire comme nous le pensions», explique l'auteur principal, le Dr Kees Jan van Groenigen, chercheur au département de botanique de la faculté de sciences naturelles au Trinity College Dublin. Le Dr van Groenigen et des collègues américains ont rassemblé toutes les recherches publiées jusqu'à présent à partir de 49 expériences réalisées dans des terres agricoles, des marécages, des forêts et des prairies d'Europe, d'Asie et d'Amérique du Nord. Toutes les expériences portaient sur les impacts du taux de CO2 dans l'atmosphère sur la capacité du sol à absorber ou émettre du méthane ou de l'oxyde d'azote. Par des méta-analyses, les chercheurs ont montré que l'augmentation de CO2 favorisait les émissions d'oxyde d'azote et de méthane ; le dioxyde d'azote affecte les sols des hautes terres et le méthane agit sur les rizières et les zones humides naturelles.
«Jusqu'à présent, il n'existait aucun consensus sur le sujet, car les résultats variaient d'une étude à l'autre», explique le professeur Craig Osenberg, de l'université de Floride aux États-Unis, co-auteur de l'étude. «Toutefois, deux schémas principaux ressortent de l'analyse de toutes ces données ; premièrement, une augmentation de CO2 a renforcé les émissions d'oxyde d'azote dans tous les écosystèmes, et deuxièmement, dans les rizières et les marécages, le CO2 supplémentaire a forcé les sols à libérer davantage de méthane.» Les marécages et les rizières sont les deux principales sources d'émissions de méthane dans l'atmosphère.
Selon les chercheurs, les organismes microscopiques spécialisés dans ces zones en sont responsables. Tout comme les êtres humains respirent de l'oxygène, ces micro-organismes respirent de l'azote et du CO2, et génèrent du méthane. Étant donné qu'ils n'ont pas besoin d'oxygène, ces organismes se développent lorsque les concentrations atmosphériques de CO2 augmentent. «Les concentrations élevées de CO2 réduisent l'utilisation de eau des plantes, rendent les sols plus humides, réduisant ainsi la disponibilité de l'oxygène dans le sol, favorisant les micro-organismes», explique le Docteur van Groenigen. Ils se développent grâce à l'augmentation des taux de CO2 qui accélèrent la croissance végétale. Ce surplus de croissance offre aux micro-organismes davantage d'énergie, leur octroyant ainsi un métabolisme plus fort.
L'équipe explique que ce surplus de croissance végétale pourrait contribuer au ralentissement du changement climatique par les écosystèmes. En effet, l'augmentation de CO2 entraîne une croissance végétale accrue, ce qui génère une plus grande absorption de CO2 par la photosynthèse. Mais les chercheurs postulent que le CO2 supplémentaire contribue à la libération d'oxyde d'azote et de méthane dans l'atmosphère par les micro-organismes, ce qui annule toute action des plantes visant à refroidir la planète. «Il s'agit d'un déséquilibre écologique : proportionnellement à l'absorption végétale accrue de CO2, les microbes émettent des gaz à effet de serre puissant», explique le professeur Bruce Hungate de la Northern Arizona University, aux États-Unis, co-auteur de l'étude. «Ce déséquilibre microbien n'est que partiel, et réduit l'action de refroidissement végétal de 20 %.»
Les chercheurs font toutefois remarquer qu'il s'agit d'une surprise écologique ; les modèles climatiques prendront désormais en compte ce facteur à l'avenir. «En négligeant le rôle important de ces deux gaz à effet de serre, les études antérieures auraient surestimé le potentiel des écosystèmes à atténuer l'effet de serre», conclut le Docteur van Groenigen.
Cordis
|
|
|
|
|
|
|
|
Des chercheurs japonais ont découvert d'immenses gisements de terres rares au fond de l'océan Pacifique. D'après une équipe de géologues japonais, dont les travaux sont publiés par la revue Nature Geoscience, les fonds de l'océan Pacifique regorgent de «terres rares», ces métaux indispensables à la fabrication de produits de haute technologie. Les gisements sous-marins se trouvent à des profondeurs variant de 3500 à 6000 mètres et s'étalent sur 11 millions de mètres carrés. Selon une estimation du professeur Yasuhiro Kato, de l'Université de Tokyo, ils contiendraient quelque 80 à 100 milliards de tonnes de ces métaux, soit 1000 fois ce que l'on trouve sur les terres émergées.
Les chercheurs de l'université de Tokyo et de l'agence japonaise des Sciences et technologies marines et terrestres ont prélevé et analysé plus de 2000 échantillons de sédiments marins dans une grande partie de l'océan Pacifique. L'équipe a découvert que certains sites, surtout à l'est de l'océan Pacifique nord et au centre de l'océan Pacifique sud, présentent une forte concentration de terres rares et notamment d'yttrium, nécessaires pour produire des écrans, des disques durs, des lecteurs MP3 ou encore des voitures électriques et des machines à laver.
Cette découverte est une aubaine pour le Japon car l'importation de terres rares est une arme précieuse utilisée à son encontre par la Chine, qui produit 97 % des terres rares et détient 55 millions des 110 millions de tonnes des réserves connues en terres émergées selon l'US Geological Survey. Avec la découverte de ces nouveaux gisements dans le Pacifique, le monopole de Pékin pourrait être sérieusement ébranlé.
Nature Géoscience
|
|
|
|
|
|
|
|
Une étude internationale a compilé les mesures du carbone absorbé par les forêts, sur toute la planète, entre 1990 et 2007. Il s’agit d’une première référence globale chiffrée pour cette composante majeure du cycle du carbone. L’étude, à laquelle participent des chercheurs du Laboratoire des sciences du climat et de l’environnement (LSCE, CNRS/CEA/UVSQ), a été publiée en ligne le 14 juillet sur le site Internet Science Express.
Les forêts jouent un rôle important dans le cycle du carbone. Elles absorbent en effet, par photosynthèse, une part du CO2 atmosphérique pour le stocker sous forme de biomasse. Ce rôle de « puits de carbone » est important car il contribue à l’équilibre climatique et à limiter les conséquences du réchauffement de la planète.
Pour la première fois, un énorme travail de compilation des inventaires de biomasse dans tous les pays permet d'établir la quantité de CO2 qui est séquestrée par les forêts. Grâce aux mesures réalisées par des inventaires nationaux sur des centaines de milliers de parcelles, avec malheureusement beaucoup moins de données dans les pays tropicaux, les chercheurs peuvent quantifier des gains ou des pertes de biomasse des forêts.
Pour la période 1990-2007, ils ont estimé le puits de carbone forestier à 2,4 milliards de tonnes de carbone à l'échelle du globe, soit environ le tiers des rejets de CO2 fossile. Cette étude a confirmé que les forêts boréales et tempérées absorbent du carbone, ce qui était déjà connu. Dans les régions tropicales (Amérique centrale et Amérique du Sud, centre et sud de l'Afrique, nord de l'Australie et une partie de l'Indonésie), les résultats compilés sont plus surprenants : les forêts primaires intactes constituent un puits de carbone annuel de 1,2 milliard de tonnes de carbone, contrebalancé par l'émission de 1,3 milliard de tonnes du fait de la déforestation, soit un bilan carbone presque nul sur l’ensemble des régions tropicales. Le processus de déforestation cause des pertes de CO2 qui sont ensuite en partie récupérées par la repousse de forêts secondaires dans les zones où l'agriculture est abandonnée.
Cette étude est une première référence chiffrée de la contribution globale des forêts dans le cycle du carbone. Une priorité est désormais de collecter plus de mesures de biomasse dans les forêts tropicales pour réduire les incertitudes sur le bilan de carbone de cette région.
Le LSCE, unité mixte de recherche CEA - CNRS - Université de Versailles-St-Quentin a participé à cette étude qui a duré deux ans et mobilisé une vingtaine de chercheurs.
CEA
|
|
|
|
|
|
|
|
Des climatologues de Météo France viennent de dévoiler leurs projections pour les années à venir à travers un nouveau rapport, Climsec : l’épisode de sécheresse record que nous avons vécu ce printemps devrait se répéter et même s’aggraver à partir du milieu du XXIe siècle.
Le rapport, baptisé Climsec, rendu public par Météo France, a de quoi inquiéter. Parmi les travaux réalisés par les climatologues, des projections de typologie des sécheresses dans les décennies à venir sous l’effet du changement climatique tel que prévu par le GIEc (groupe de l’Onu sur le changement climatique), ont été faites. Et la conclusion est la suivante : quels que soient les modèles retenus, les sécheresses augmentent dans les années à venir.
L’AFP indique que si pour le premier tiers du XXIe siècle (vers 2020) les changements identifiés "semblent peu marqués pour les sécheresses météorologiques" (en terme de précipitations), le rapport prévoit pour le milieu du siècle (vers 2050) une "intensification" de l'assèchement des sols agricoles sur tout le territoire métropolitain.
"A partir des années 2080 des déficits pluviométriques plus forts apparaissent, notamment en été et les sécheresses du sol pourraient devenir extrêmes sur la majeure partie du territoire", et potentiellement durer plusieurs années. Selon le projet Climsec, les régions comme le Nord et le Nord-Est, qui ont les sols les plus humides à ce jour, vont connaître à la fin du siècle "les évolutions les plus fortes". Les chercheurs précisent que l’étude a tenu compte de trois sources d’incertitudes : l’incertitude relevant des modèles climatiques eux-mêmes, celle venant des différents scénarios d’émissions de gaz à effet de serre, et celle relevant des méthodes utilisées pour "élever à l’échelle de la région des résultats pour la France".
Avec ces travaux, le Climsec vise à "renforcer les outils pour analyser et mieux comprendre les situations de sécheresse, comme celle de ce printemps, et à développer le volet changement climatique avec des projections annonçant une aggravation des sécheresses", a précisé Jean-Michel Soubeyroux, climatologue à Météo France et auteur du rapport. Son travail a duré quatre ans, pendant lesquels il a étudié en détails les périodes de grande sécheresse de 1976, 1989 et 2003. Pour rappel, Météo France avait indiqué en mai dernier que le printemps 2011 était le plus chaud jamais enregistré "depuis au moins 1900".
CLIMSEC
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une équipe de chercheurs financés par l'UE et originaires du Canada, d'Allemagne et de Pologne a fait un grand pas en avant dans la recherche sur la neurofibromatose (NF1), une maladie génétique. La neurofibromatose touche environ une personne sur 3000 et se manifeste sous plusieurs formes : bénigne, des tâches «café au lait» sur la peau, de petites tumeurs sous la peau, des neurofibromes plexiformes profonds et des tumeurs malignes sur les enveloppes nerveuses.
À l'heure actuelle, il n'existe aucun biomarqueur (une protéine mesurée dans le sang dont la concentration peut révéler la présence d'une maladie particulière) pour détecter les tumeurs chez les patients atteints de NF1, mais une équipe internationale de chercheurs a montré qu'un simple test sanguin pour détecter l'activité inhibitrice du mélanome (MIA) pouvait permettre de révéler la présence de neurofibromes même s'ils ne sont pas visibles sur la peau à l'oeil nu.
Partiellement financée par le projet EUROGROW («Pathophysiology of the cartilage growth plate») dans le cadre du domaine thématique «Sciences de la vie, génomique et biotechnologie pour la santé» du sixième programme-cadre (6e PC), l'équipe a analysé les niveaux de MIA dans le sang des patients atteints de NF1. Ils ont constaté que les patients présentaient des niveaux sériques de MIA très élevés et que ce taux dépendait du nombre et de la taille de neurofibromes et des neurofibromes plexiformes chez chaque individu. Les biopsies des tumeurs ont montré une augmentation de la MIA au niveau cellulaire.
Le Dr Kolanczyk, chercheur principal du projet de l'Institut de génétique médicale à l'université Humboldt en Allemagne, expliquait : «Utiliser le biomarqueur MIA pour tester la présence et la croissance des neurofibromes plexiformes serait une solution plus facile et moins coûteuse pour surveiller le développement clinique des patients et permettrait la détection rapide des tumeurs et ainsi une amélioration des traitements, de la gestion et des résultats. La détection de neurofibromes plexiformes profonds est actuellement possible uniquement à l'aide d'une IRM et étant donné que ces tumeurs peuvent devenir malignes, il est primordial de surveiller leur croissance aussi étroitement que possible et de détecter des signes de transformation maligne aussi tôt que possible.»
Le projet EUROGROW implique la participation de 11 organismes partenaires ; son objectif est d'étudier les chondrodysplasies, un groupe extrêmement divers et complexe de maladies génétiques rares affectant le développement du squelette. Au total, il existe 200 phénotypes uniques et bien caractérisés qui varient en sévérité, allant de formes relativement bénignes à des formes graves et mortelles. Sur 10 000 personnes, 4 sont affectées par l'une de ces maladies. Ainsi, dans les 25 États membres où les chondrodysplasies sont courantes, près de 178 000 personnes sont touchées.
Cordis
|
|
|
|
|
|
|
|
L'introduction en 1996 des médicaments antirétroviraux a radicalement changé la situation des personnes infectées par le virus du sida, le VIH, ramenant cette maladie auparavant mortelle au rang de maladie chronique chez les patients bénéficiant d'un traitement continu et régulier. Les antirétroviraux ont ensuite rapidement été utilisés à des fins préventives lors de la grossesse pour éviter la transmission du virus de la mère à son enfant, ce qui a fait quasiment disparaître la contamination materno-fœtale dans les pays riches. Les chercheurs étudient désormais les effets des traitements antirétroviraux sur la transmission du VIH. Les résultats de trois nouvelles études qui viennent d'être présentés au congrès annuel de l'IAS (Société internationale du sida), lundi 18 juillet à Rome, confirment l'impact positif des médicaments antirétroviraux pour limiter la transmission du VIH.
La première étude, nommée HPTN 052 (HIV prevention trials network, réseau d'essais de prévention du VIH), conduite par Myron Cohen, de l'Université de Caroline du Nord, se focalise sur le partenaire séropositif. L'échantillon rassemblait 1 763 couples sérodifférents (l'un des partenaires est séropositif et l'autre séronégatif), dans huit pays d'Afrique et d'Asie et aux États-Unis. Le partenaire séropositif recevait un traitement antirétroviral (une combinaison de deux médicaments, le ténofovir et l'emtricitabine) soit dès le début de l'essai, soit une fois que des signes d'une altération des défenses immunitaires étaient apparus.
Résultat : sur 29 transmissions survenues durant l'essai, une seule s'est produite dans le groupe où le partenaire séropositif recevait un traitement précoce. En d'autres termes, le traitement antirétroviral précoce de la personne infectée réduit le risque de transmission au partenaire séronégatif de 96 pour cent par rapport à un traitement tardif. Par ailleurs, le développement des infections liées au VIH au terme de l'essai était 40 pour cent moins important chez les participants traités précocement que chez ceux traités tardivement.
Les autres études présentées dirigent leur action sur les partenaires séronégatifs. L'essai TDF2, mené par Michael Thigpen, du Centre de contrôle des maladies et la prévention (CDC) aux États-Unis, portait sur 1 200 hommes et femmes hétérosexuels séronégatifs au Botswana. Un groupe recevait en traitement continu la combinaison ténofovir-emtricitabine, et l'autre un placebo. Les résultats montrent que l'administration des antirétroviraux réduit de 63 pour cent le risque d'être infecté par le VIH par rapport au placebo, un taux qui monte à 78 pour cent si l'on considère les seuls participants qui ont respecté scrupuleusement le traitement.
Enfin, le troisième essai, nommé PrEP et mené par Jared Baeten et Connie Celum de l'Université de Washington à Seattle, visait à évaluer l'effet préventif de la combinaison ténofovir-emtricitabine ou du ténofovir seul chez des individus hétérosexuels séronégatifs ayant un partenaire séropositif. 4 758 couples sérodifférents ont été recrutés au Kenya et en Ouganda. L'essai révèle que le ténofovir réduit le risque d'infection de 62 pour cent par rapport au placebo, et la combinaison ténofovir-emtricitabine de 73 pour cent. La différence entre les deux n'est cependant pas statistiquement significative.
Ces résultats vont dans le sens de deux essais précédent. En novembre 2010, l'essai iPrEx, qui portait sur 2 499 hommes ayant des rapports avec hommes, avait montré que le risque d'infection par le VIH était réduit de 44 pour cent dans le groupe traité avec du ténofovir et de l'emtricitabine. En juillet de la même année, l'essai Caprisa, impliquant 889 femmes d'Afrique du Sud, avait montré que l'utilisation d'un gel vaginal contenant du ténofovir réduisait de 39 pour cent le risque d'infection. Cet ensemble de résultats démontre l'efficacité des antirétroviraux pour diminuer le risque de transmission du VIH par une personne séropositive et le risque d'infection pour une personne séronégative. En d'autres termes, le traitement antirétroviral est une prévention efficace.
Pour La Science
|
|
|
|
|
|
|
|
Pour assurer un développement foetal normal, mais également pour prévenir certaines maladies, il est crucial que certains gènes soient activés ou désactivés au bon moment. Les chercheurs du groupe de recherche du professeur Kristian Helin au Centre pour l'Epigénétique de l'Université de Copenhague, ont ainsi montré que l'enzyme TET1 contrôle l'activité de nos gènes, et ont publié leurs découvertes dans la revue scientifique renommée Nature.
Le code génétique a été complètement cartographié en 2000. Cependant, il est apparu évident que le code génétique en lui-même ne répond qu'en partie aux questions posées par le développement et la protection contre les maladies. Le contrôle de l'expression génétique est également important, et celui-ci est contrôlé par des enzymes cellulaires spécifiques qui peuvent attacher de petits groupes chimiques, les groupes méthyles, à notre ADN. "Les groupes méthyles peuvent désactiver un gène situé dans la partie de l'ADN où il est placé. TET1 est un autre type d'enzyme qui peut réguler finement les signaux contrôlant nos gènes en changeant les groupes méthyles avant qu'ils ne soient retirés , explique Kristian Helin.
Kristine Williams, Jesper Christensen et Marianne Terndrup Pedersen sont les trois personnes clés du laboratoire Helin ayant contribué à ces résultats. "Notre découverte la plus importante est que TET1 agit comme un gardien et empêche que des groupes méthyles soient attachés sur des gènes qui doivent être actifs pour une croissance normale et un développement cellulaire régulier. C'est crucial pour le développement foetal, par exemple", explique la doctorante Kristine Williams.
Certains gènes précis doivent être actifs dans le système cellulaire de notre corps, avant que les cellules ne se spécialisent dans l'une des 200 possibilités existantes dans le corps humain. D'autres gènes sont fondamentaux pour certaines cellules spécialisées, telles que les cellules du foie, des muscles ou encore nerveuses.
Les résultats contribuent également à la compréhension des mécanismes sous-tendant l'apparition de cellules cancéreuses. Les fonctions de notre corps sont dépendantes d'un renouvellement cellulaire constant, par division cellulaire notamment. Une grande machinerie cellulaire se charge quant à elle de vérifier que l'ADN est intact et copié correctement quand nos cellules se divisent. Il s'agit d'un point important pour le développement et le fonctionnement normal de nos cellules, car dans les cas où cela ne fonctionne pas, des mutations peuvent résulter dans le développement d'un cancer. Les gènes très spécialisés, appelés gènes suppresseurs de tumeur, sont très important dans la lutte contre le cancer.
"Si des groupements méthyles sont déployés sur des gènes normalement actifs dans les cellules, ces gènes sont désactivés et cela peut être nuisible pour tout l'organisme. Si cela se passe pour les gènes suppresseurs de tumeurs, cela peut favoriser l'apparition d'un cancer, puisque ces gènes ne peuvent plus empêcher une croissance cellulaire non voulue", explique Kristian Helin. Ainsi, l'enzyme TET1 peut combattre le cancer en contrôlant l'activité et la fonction de protection des gènes suppresseurs de tumeurs. Nos cellules contiennent également une enzyme proche de la TET1, nommée TET2, qui est le gène le plus fréquemment muté dans les cas de leucémie. Les chercheurs ont également découvert que TET2 contrôle également l'activité des gènes en facilitant l'enlèvement de groupements éthyles de l'ADN, et cherchent désormais à étendre ces études aux modèles cellulaires pour le développement de cancers.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Un gène susceptible de majorer le risque d’arrêt cardiaque vient d’être identifié par une vaste équipe internationale, dirigée par Sumeet S. Chugh (Los Angeles). Les chercheurs ont réalisé une association à partir de la totalité du génome chez plus de 4 400 sujets ayant eu un arrêt cardiaque. Les données ont été confrontées à celles de plus de 30 000 témoins indemnes. Il s’agissait d’individus ayant tous des ancêtres européens. Le travail a été mené en deux étapes, la première sur, respectivement, 1 283 et plus de 20 000 sujets ; la seconde, sur le reste des deux cohortes, était destinée à la confirmation.
Il existe une forte association entre une région du génome encore jamais impliquée dans l’arrêt cardiaque, le locus BAZ2B. Les porteurs de la mutation ont un risque multiplié par 1,92. Le gène contient 3 gènes jamais mis en relation avec une pathologie cardiaque.
Les chercheurs ont tiré profit de leur vaste étude pour tenter de mettre en évidence d’autres variations impliquées dans les modifications de l’ECG associées à l’arrêt cardiaque brutal (espaces QT, QRS et RR). De fait les gènes qui favorisent l’allongement des espaces QT et QRS sont aussi associés à un risque d’arrêt cardiaque.
Le Quotidien du Médecin
|
|
|
|
|
|
|
|
Une jeune chercheuse de 34 ans du groupe de recherche en biochimie sur le cancer de l'Université de Girona, Marta Pérez-Garay a publié début février une thèse dans laquelle elle présente une importante avancée en matière de connaissance du cancer du pancréas. Cette affection, mortelle dans 96 % des cas, est l'un des cancers les plus agressifs en ce qui concerne la création de métastases sur d'autres tissus, processus qui ne répond actuellement à aucun traitement.
La découverte, par Marta Pérez-Garay, de deux gènes, appelés "ST3Gal III" et "ST3Gal IV", impliqués dans la métastase de cette maladie spécifique, constitue dès à présent une information à résonance mondiale. En effet, la maîtrise des mécanismes de la maladie, qui reste à explorer dans son intégralité, est universellement reconnue comme complexe. Les deux gènes responsables de la création d'une enzyme, par les cellules tumorales, permettent aux cellules anormales de gagner le flux sanguin et ainsi créer les métastases à différents endroits du corps, phénomène rendant la maladie mortelle.
Le fait d'avoir identifié la fonction et le mécanisme de ces deux éléments ouvre désormais la porte à l'élaboration d'une stratégie thérapeutique visant à les inhiber, et ainsi développer de nouveaux traitements pour le cancer du pancréas. Cette découverte prend des airs de victoire pour la jeune chercheuse et pour le laboratoire de Biochimie de l'Université de Girona.
La Clau
|
|
|
|
|
|
|
|
Une nouvelle voie est ouverte pour le diagnostic du cancer du sein: une simple prise de sang pourrait à l'avenir permettre de détecter cette pathologie. Une équipe de recherche de l'Université de Fribourg a publié ses premiers résultats : ils pourraient également induire une application thérapeutique à même de freiner l'apparition des métastases.
Le cancer est gourmand en énergie : c'est par la formation de nouveaux vaisseaux sanguins que la tumeur s'assure cet apport supplémentaire. Il s'agit d'un processus complexe qui est en partie induit par la tumeur elle-même. Celle-ci attire une grande quantité de globules blancs identiques à ceux des processus d'inflammation dus, par exemple à un exéma ou à l'arthrite. Or, ces globules blancs ont la capacité d'induire la formation de vaisseaux sanguins ("angiogenèse"). On peut ainsi dire que la tumeur exploite en sa faveur des cellules inflammatoires qui normalement combattent les infections et facilitent la cicatrisation.
Le professeur Curzio Ruegg, titulaire de la chaire de pathologie de l'Université de Fribourg, nouvellement créée dans le cadre de la troisième année de médecine, explique la clé de cette découverte : "aujourd'hui nous pouvons ajouter une pièce au puzzle. La tumeur produit un facteur qui circule dans le sang et incite les monocytes à quitter la moelle osseuse pour venir soutenir la formation de vaisseaux dans la tumeur. Nous avons pu démontrer que les cancers peuvent éduquer 'à distance' l'activité pro-angiogénique des monocytes dans la moelle".
Les résultats obtenus en laboratoire ont été validés, en collaboration avec des cliniciens du CHUV à Lausanne, auprès des patients souffrant de cancer du sein. Chez ces patients, des taux élevés de ce facteur et de globules blancs avec des capacités pro-angiogéniques ont été mis en évidence dans le sang. La première application de cette découverte est la possibilité d'établir un diagnostic fiable et rapide du cancer du sein simplement grâce à une prise de sang.
Une seconde application, thérapeutique celle-ci, peut également être envisagée. En effet, si dans le cas d'une tumeur localisée, la chirurgie se présente, en général, comme le traitement le plus efficace, les chercheurs ont pu démontrer qu'en cas de rechute, l'élimination de ces cellules devrait freiner l'apparition de métastases et donc réduire la croissance de la tumeur, un peu comme si on lui coupait les vivres.
Tribune de Genève
|
|
|
|
|
|
|
|
Maladie fréquente dans les pays industrialisés, l’insuffisance cardiaque se caractérise par une incapacité du cœur à assurer un débit cardiaque suffisant pour couvrir l’ensemble des besoins énergétiques de l’organisme, en raison d’une défaillance de la fonction cardiaque. Chaque année, plus de 120 000 français sont nouvellement diagnostiqués et 32 000 décèdent des suites de cette pathologie. Les risques de souffrir de cette maladie très souvent handicapante augmentent avec l’âge. Toutefois, il existe des traitements médicamenteux (Inhibiteur de l'enzyme de conversion et bêtabloquants) efficaces qui améliorent de façon importante le pronostic vital.
Dans le cadre de l’étude Cupid (Calcium Up Regulation by Percutaneous Administration of Gene Therapy in Cardiac Disease), Roger J. Hajjar et ses collègues de Hôpital du mont Sinaï de New-York, ont réalisé un essai de phase II, mené en double aveugle, contre placebo, sur des patients souffrants d’insuffisance cardiaque à un stade avancé. Tirés au sort, 39 d’entre eux ont reçu, à l’aide d’un vecteur viral, le gène SERCA2a à trois dosages différents ( sarcoplasmic réticulum Ca2+ - ATPase). Le but de l’expérience était de faciliter l’entrée du calcium dans le myocarde, afin d’améliorer le fonctionnement de la pompe cardiaque.
A six et douze mois, les chercheurs ont fait un bilan complet de l’état de santé des patients, en se focalisant tout particulièrement sur la fonction cardiaque. Les patients ayant reçu la plus forte dose du gène, ont vu leur état s’améliorer considérablement. Autre point qu’a tenu à souligner l’équipe de Roger J. Hajjar, c’est le fait que la thérapie génique a été particulièrement bien tolérée et que pour l’instant aucun effet secondaire graves n’a été observé. Les résultats encourageants de cette étude, publiés dans la revue Circulation, ouvrent la voie à un nouvel espoir thérapeutique pour ce type de maladie grave.
Information Hospitalière
|
|
|
|
|
|
|
|
Quand nous manquons de sommeil, le cerveau s'endort « par morceaux », alors que nous sommes encore éveillés.
Quand on ne dort pas assez, la concentration s'étiole, les erreurs s'accumulent, la mémoire flanche et l'on « décroche » souvent dans les conversations. Vladyslav Vyazovskiy et ses collègues, de l'Université du Wisconsin, ont découvert que le cerveau est alors déjà en partie endormi, même si nous ne le savons pas et que nous restons, aux yeux des autres, éveillés. C'est ce que l'on appelle dormir debout. Les neurobiologistes ont découvert, en étudiant des rats soumis à des privations de sommeil, que le cerveau est en situation de sommeil morcelé : ici et là, de façon non concertée, des portions d'encéphale dorment. On observe une mosaïque de petits sommeils qui n'attendent que de s'unir pour plonger l'animal dans les bras de Morphée.
V. Vyazovskiy et ses collègues ont implanté dans le cerveau de rats de laboratoire 16 électrodes recueillant l'activité des neurones en divers endroits, et ont soumis les animaux à des périodes de plus en plus longues de privation de sommeil. Ils ont constaté que certains neurones entrent dans un état caractéristique du sommeil, qu'ils qualifient de « off » : les fluctuations d'activité rapides et de faible intensité caractéristiques de l'éveil sont remplacées par une alternance de phases d'activité intense et faible. Ce type de comportement oscillant se traduit, à l'échelle des groupes de neurones, par des ondes de basse fréquence caractéristiques du sommeil lent ou du sommeil profond. En d'autres termes : certaines parties du cerveau des rats dorment déjà, alors même que les animaux déambulent dans leur cage et réalisent divers tests.
Les performances des animaux dans les tâches de précision qu'ils doivent effectuer (attraper un morceau de sucre à travers une mince fente avec une seule griffe) se dégradent d'autant plus que le nombre de zones de leur cerveau en situation de présommeil augmente. Les pertes d'attention et les baisses de performances généralement attribuées au manque de sommeil résulteraient ainsi du fait que le cerveau dort en partie. Il présente une mosaïque de zones éveillées et endormies, le véritable sommeil nécessitant une fusion de ces zones.
Selon les neurobiologistes, un tel état intermédiaire pourrait servir à reposer alternativement des isolats de neurones sans priver l'animal de sa capacité à veiller sur son environnement et d'éventuels prédateurs. Chez d'autres animaux, tels les dauphins et de nombreuses espèces d'oiseaux, un des deux hémisphères cérébraux dort pendant que l'autre veille. Les mammifères terrestres, eux, se contentent de dormir debout.
Pour La Science
|
|
|
|
|
|
|
|
Les participants d'un congrès ont été badgés durant deux jours par une équipe franco-italienne impliquant notamment des chercheurs du CNRS, de l'Inserm, de l'Université Claude Bernard Lyon 1 et du CHU de Lyon, afin d'étudier leurs mouvements et les interactions au sein d'une population. Les données récoltées permettent d'envisager la simulation de la propagation du risque infectieux au sein d'une population, voire même l'optimisation de la réponse face à l'expansion d'une épidémie. Les résultats de ces travaux ont été publiés le 19 juillet dans BMC Medicine.
Jusqu'à présent, les données concernant la dynamique des contacts étaient floues : on supposait souvent qu'au sein d'un groupe chaque individu pouvait être confronté à un autre, selon une estimation moyenne de fréquence et de durée de contact. Dans le cas d'un risque infectieux, la probabilité d'infection déterminée n'était, de ce fait, pas représentative : en effet, en épidémiologie, un contact unique d'une minute n'a pas le même impact qu'un contact répété ou plus long.
Dans le cadre du projet SocioPatterns, une équipe réunissant des physiciens et des épidémiologistes de laboratoires du CNRS et d'autres organismes, a profité d'un congrès de deux jours pour mesurer les contacts entre les 500 participants, chacun ayant accepté de porter un badge RFID (identification par radiofréquences). Ces badges ont permis de détecter chaque moment où deux individus ont été proches et se sont fait face. Les dispositifs communiquaient entre eux grâce à l'émission d'ondes de très faible intensité (1000 fois moins qu'un téléphone portable) et à une distance comprise entre 1 et 2 mètres. Après avoir collecté puis traité les données par ordinateur, les chercheurs ont pu modéliser la dynamique des contacts.
L'équipe est ainsi capable d'exprimer avec précision les relations entre les individus en données temporelles, de durée et de fréquence. Modéliser la dynamique des interactions réelles dans une population permet de simuler le phénomène de la propagation infectieuse et d'imaginer à long terme, une meilleure réponse en cas d'épidémie. Pour affiner le modèle, l'équipe compte récolter des informations complémentaires, c'est pourquoi les contacts entre élèves au sein d'une école sont en cours d'analyse et le déploiement de l'infrastructure de mesures a déjà fait l'objet d'une étude dans un hôpital de Rome. Dans le futur, il est possible d'imaginer l'intégration de cette nouvelle communication inter-badges, au sein d'une entreprise ou dans les nouvelles technologies, les smartphones étant déjà notamment très bien équipés en senseurs.
CNRS
|
|
|
|
|
|
|
|
Une équipe de scientifiques de l'Université de Leicester a publié, dans le journal scientifique Current Biology, des résultats venant améliorer la compréhension du processus de neurodégénérescence de la chorée de Huntington. L'étude, portant sur le modèle animal des mouches à fruits, ou Drosophila melanogaster, a ciblé la voie de signalisation moléculaire des kynurénines. Enzymes résultant du métabolisme du tryptophane (acide aminé essentiel constituant des protéines et devant être apporté par l'alimentation car l'organisme ne peut le synthétiser), les kynurénines sont connues pour affecter les cellules nerveuses, et sont au nombre de trois : l'acide kynurénique (Kyna), l'acide quinolinique (Quin) et le 3-hydroxykynurénine (3-HK).
Le modèle animal de la mouche à fruits présente l'avantage qu'il partage une large quantité d'information génétique avec l'humain, dont la voie de signalisation des kynurénines. Par ailleurs, son cycle de vie rapide permet d'obtenir de nombreuses données et résultats en un temps relativement court. En raison de la simplicité génétique de ce modèle, les scientifiques ont pu réguler cette voie de signalisation selon des critères précis et ainsi examiner les effets de ces métabolites sur la dégénérescence neuronale. En particulier, ce phénomène était largement ralenti chez des animaux transgéniques non porteurs du gène responsable de la synthèse de l'enzyme KMO : les scientifiques ont observé une réduction significative du ratio 3-hydroxykynurénine (agent neurotoxique) / acide kynurénique (agent neuroprotecteur), un ratio généralement élevé chez les mouches atteintes de cette pathologie.
Les scientifiques ont donc cherché à reproduire cet effet chez des sujets sauvages (non transgéniques) en utilisant trois agents inhibiteurs de l'enzyme KMO. La neuroprotection observée était similaire en amplitude à celle observée chez les animaux transgéniques. En revanche, aucun effet synergique n'a pu être observé chez les animaux transgéniques soumis à l'inhibition de l'enzyme KMO.De manière intéressante, un article connexe a été publié simultanément par des scientifiques américains dans le périodique Cell, relatant des résultats similaires chez des animaux murins et rongeurs des maladies de Huntington et d'Alzheimer.
Bulletins Electroniques
|
|
|
|
|
|
|
|
La pathologie vasculaire cérébrale infra-clinique peut se présenter sous la forme d’accidents vasculaires ischémiques constitués dits « silencieux » mais aussi d’une atteinte de la substance blanche. Chez le sujet âgé, cette pathologie peut avoir des conséquences fonctionnelles importantes en rapport avec des troubles de la motricité, des chutes ou des troubles cognitifs. Les AVC constitués et l’atteinte de la substance blanche ont des facteurs de risque le plus souvent communs. Des études comme la Northern Manhattan Study (NOMAS) ont montré que l’activité physique soutenue (150 mn par semaine d’intensité modérée ou 75 mn de forte intensité) prévenait l’apparition d’AVC ischémiques. Toutefois, les données concernant l’atteinte vasculaire cérébrale infra-clinique sont beaucoup plus rares.
Une équipe new yorkaise a donc décidé d’analyser les données recueillies dans la cohorte NOMAS pour préciser ce risque. Cette cohorte représentative de la population générale est dédiée à l’étude des facteurs de risque d’AVC. Au total, 3 298 sujets inclus dans cette étude menée de 1993 à 2001, ont été suivis annuellement par téléphone et depuis 2003 ceux âgés de plus de 55 ans et n’ayant jamais eu d’AVC ont eu une IRM cérébrale ; 1 238 sujets d’âge moyen de 70 ans ont finalement bénéficié de cette IRM, 43 % d’entre eux n’ayant pas d’activité physique. Le diagnostic en imagerie d’un infarctus silencieux était posé devant la constatation d’une zone cavitaire de taille > 3mn. L’évaluation de l’activité physique était faite en demandant au sujet de répondre à un questionnaire modifié du National Health Interview Survey of the National Center for Health Statistics.
L’analyse statistique a montré que les sujets situés dans le quartile supérieur en terme d’activité physique avaient une diminution de risque de 40 % d’avoir un infarctus silencieux. Par contre, il n’existait aucune relation avec l’atteinte de la substance blanche. Ce type d’étude ne permet pas de proposer une explication et n’échappe pas à un certain nombre de biais. Toutefois, elle apporte une contribution supplémentaire à la théorie du rôle neuroprotecteur de l’exercice. Finalement, en cette période de début de vacances, il peut être utile de rappeler que « la tête et les jambes » travaillent de concert à notre santé et que l’exercice physique fait du bien au cerveau à court et à long terme.
JIM
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Roulez Malin, Ecolutis, Covoiturage.com et Covivo, quatre opérateurs de covoiturage ont tout compris. Ils se sont réunis pour concevoir et expérimenter un protocole d’échanges de données du covoiturage, l'idée étant d’augmenter le nombre d’annonces disponibles sur un territoire et de mutualiser les offres entre les offreurs. Baptisé RDEX (Ridesharing Data EXchange), ce standard a pour vocation de faciliter les échanges de données de covoiturage et pourrait devenir un standard mondial.
Et comme l'intelligence n'a pas de limite, le protocole Rdex est un protocole ouvert conçu pour permettre une interactivité sans dépendance à l'image des réseaux peer to peer. Il est ainsi possible de construire des accords bilatéraux entre plates-formes. Par exemple, une entreprise régionale pourrait signer un accord avec le conseil général de son territoire, tandis que ce dernier pourrait collaborer avec les départements limitrophes par ailleurs. La démarche est collaborative et les promoteurs de Rdex souhaitent être rejoints par tous les acteurs volontaires, petits, grands, locaux ou internationaux pour faire progresser ce qui pourrait devenir un standard mondial.
Roulez Malin, Ecolutis, Covoiturage.com et Covivo donnent ici un bel exemple de ce qu'est l'économie d'un véritable développement durable, où collaboration et concurrence peuvent se conjuguer au profit de tous avec à la clé le développement de nombreux produits et services. Tous les secteurs sont concernés par une telle démarche dont les économies d'énergies, les énergies renouvelables, ou encore la production et la distribution de produits alimentaires.
DD Magazine
|
|
|
|
|
|
|
|
General Motors utilise désormais le prototypage rapide pour mettre au point certaines de ses pièces maîtresses. Un usage massif de solutions numériques qui permet d'envisager leur mise à disposition auprès des clients.
Comment accélérer le design de produits puis leur fabrication ? En utilisant des solutions de prototypage rapide, comme la stéréolithographie et le procédé SLS (Selective Laser Sintering). General Motors a récemment annoncé combiner les deux, afin de mettre rapidement au point de véritables objets à partir d'un simple modèle numérique. Le fabricant dispose d'un laboratoire dédié et baptisé The Rapid Prototype Laboratory, et dans lequel des techniciens peuvent produire et tester des composants sans faire monter la facture. Pourquoi en parler ? Parce que ce type de système, qui élimine des frais et plusieurs phases de design et réalisation, pourrait permettre d'ouvrir l'innovation aux clients - designers, ingénieurs, mais aussi peut-être consommateurs finaux - du fabricant. "Aujourd’hui, ce n’est du tout le cas", répond à L'Atelier David Bolognino, directeur de fabrication de General Motors aux Etats-Unis. Mais cela est loin d'être exclu. "D’un point de vue technologique, au regard du développement rapide et pertinent de nos prototypes, il n’y a aucune raison pour que nous ne nous tournions pas vers le développement d’outils personnalisés", ajoute-t-il.
- La pertinence des réseaux sociaux
Ce qui permettrait de personnaliser les véhicules, ou de lancer des concours d'idées auprès des clients et des consommateurs. Selon lui, ce qui freine le développement de ce qui deviendrait des living labs et la réalisation des projets clients, ce sont les étapes très techniques dans la construction ainsi que leur adaptation aux particuliers. Malgré ces obstacles, le directeur estime que l’innovation n’en reste pas moins ouverte, mais sous d’autres formes. En effet, il existe une interaction entre les équipes de designers et d’ingénieurs avec les clients par le biais de programmes d’évaluation comme Main Street in Motion où les consommateurs peuvent évaluer les véhicules, mais pas seulement. "Une autre plate-forme permet de créer ces liens et de s’ouvrir aux propositions des consommateurs", explique David Bolognino.
- Des opportunités à saisir
"Il s’agit des réseaux sociaux. Nos ingénieurs sont attentifs à ce qui s’y passe et surtout aux manières de faciliter l’intégration des réactions postées dans le processus de développement des produits". C’est une manière selon lui, de s’imprégner des réactions des consommateurs, soit une autre forme d’interaction que celle qu’ils peuvent établir avec un partenariat professionnel. Jusqu’ici, les demandes avaient toujours été filtrées par les équipes complexes d’ingénieurs, de designers. "Mais l’étape où survient l’interaction entre les clients et le concessionnaire ne peut pas se faire d’un coup car il y a des ajustements techniques et conceptuels à effectuer". La prochaine phase sera donc d’intégrer les principes des technologies de 3D dans les relations clients pour rendre cette innovation disponible en B to C. Et cela se fera au moyen des réseaux sociaux.
L'Atelier
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|