|
|
|
|
|
NUMERO 626 |
|
|
|
|
|
|
|
Edition du 01 Décembre 2011
|
|
|
|
|
Edito
Chaque foyer doit pouvoir accéder au très haut débit avant 2020
En cette fin d'année 2011, notre planète compte près de 120 millions d’abonnés à la fibre optique (dont 60 % sont raccordés par une prise optique à domicile). Avec plus de 50 millions d'abonnés, l’Asie représente à elle seule plus de 40 % des abonnés mondiaux au très haut débit optique. Notre vieille Europe arrive loin derrière avec 10,5 millions de prises optiques, suivie par l'Amérique du Nord (USA et Canada), qui compte 7,5 millions de prises optiques.
Orange et SFR sont enfin parvenus à un accord décisif, le 14 novembre, pour déployer la fibre optique en-dehors des zones urbaines et se répartir le raccordement optique de près de 10 millions de logements, soit pratiquement un tiers des logements en France. Cet accord a été salué à juste titre comme une "avancée décisive" par l'autorité de régulation des télécoms, l'Arcep.
Pourquoi cet accord est-il si important ? Parce qu'il modifie la logique de déploiement du très haut débit optique qui prévalait jusqu'à présent : avant cette entente, les investissements des opérateurs et leurs projets concernaient essentiellement les grandes agglomérations urbaines et très peu les zones rurales à faible densité de population, évidemment beaucoup moins rentables, en termes de retours sur investissement.
L'accord signé le 14 novembre précise que "Sur les 11 millions de logements qui seront couverts (en fibre) par France Télécom-Orange et SFR en dehors des zones très denses, 9,8 millions correspondent à des agglomérations pour lesquelles les projets de déploiement des deux opérateurs se recoupaient". Au terme de cet accord, sur ces 9,8 millions de logements, SFR en réalisera 2,3 millions et France Télécom-Orange 7,5 millions.
Afin d'éviter les investissements en "double emploi", l'accord désigne, pour chaque collectivité locale, l'opérateur maître d'œuvre susceptible d'assurer la meilleure couverture dans les meilleurs délais.
Autre point important : Orange et SFR précisent qu'ils ont pris "l'engagement de couvrir chaque commune dans les 5 ans qui suivent l'initialisation des déploiements". Concrètement, les opérations de déploiement démarreront dans l'ensemble des communes entre 2012 et 2015 et s'achèveront, au plus tard, en 2020, selon les termes de cet accord. En intégrant les déploiements dans les zones à forte densité de population, ce sont finalement près de 60 % des 26 millions de foyers français qui seront desservis par la fibre optique à l'horizon 2020, dans le cadre de cet accord historique.
Reste la question des 10 millions de foyers restants (quatre foyers sur dix) pour lesquels SFR et Orange sont disposés à coopérer avec les collectivités locales concernées pour mettre en œuvre, au cas par cas, les meilleures solutions techno-économiques.
S'agissant des contenus et services numériques, SFR et Orange s'engagent "à être commercialement présents sur les zones de l'accord en souscrivant aux offres de gros de celui qui déploiera localement le réseau".
Le but de l'Etat est de couvrir 100 % des foyers français en fibre optique d'ici 2025, une couverture estimée à 24 milliards d'euros par l'Arcep, soit environ 1000 euros, en moyenne, par foyer raccordé.
Dans le cadre du grand emprunt, le gouvernement a alloué deux milliards d'euros pour les infrastructures numériques, dont 750 millions de subventions réservées aux zones peu denses et 250 millions aux zones les plus reculées.
Reste qu'actuellement, moins du quart des foyers français (6 millions de logements) sont raccordés au très haut débit fixe via la fibre optique, mais, ce qui est encore plus alarmant, il n'y a que 600 000 foyers -moins d'un foyer raccordable sur 10- qui ont souscrit un abonnement optique !
La raison de ce très faible taux d'abonnement est assez simple : pour l'utilisateur moyen disposant de 18 ou même de 12 mégabits/seconde, une connexion à l'Internet et à la TV numérique via l'ADSL est largement suffisante pour la grande majorité des usages et services dont il a besoin.
Mais la demande en bande passante et en débit devrait exploser dans les 3 à 5 ans qui viennent sous l'effet de plusieurs avancées technologiques convergentes. La première est la généralisation des offres multi-écrans qui permettent, à partir de la même "box", de regarder simultanément sur plusieurs téléviseurs des programmes différents. L'autre révolution technologique concerne l'arrivée massive des téléviseurs connectés, conçus pour naviguer sur le Net. De plus, la 3D et la HD de nouvelle génération vont être de plus en plus exigeantes en bande passante.
Il faut également souligner le prochain déploiement du réseau mobile à très haut débit 4G, dont les licences sont en cours d'attribution. Or, le 4G voudrait être au 3 G ce que la fibre optique est aux réseaux ADSL sur cuivre sur câble téléphonique. Grâce à la technologie LTE (Long Term Evolution) qui promet des débits d'au moins 50 Mbits/s entre l'antenne-relais et le mobile et à l'intégration complète du protocole IP, la 4G va constituer le "chaînon manquant" pour véhiculer les services multimédia à très haut débit vers l'utilisateur, où qu'il se trouve.
Mais la révolution technologique la plus radicale va peut-être venir d'une avancée liée aux progrès conjoints de l'électronique, de la physique et des télécommunications. Des chercheurs japonais de l'université d'Osaka et du fabricant Rhom ont en effet réussis à créer une puce capable de transférer des données sans fil à des vitesses comparables à celles obtenues par la fibre optique ! En utilisant le potentiel des ondes "térahertz", situées entre la lumière et les ondes radio sur le spectre électromagnétique, les chercheurs japonais ont pu échanger des données sans fil à un débit de 1,5 Gb/s. Mais ce n'est qu'un début car ces chercheurs sont convaincus qu'il est possible d'atteindre des vitesses de l'ordre de 30 Gb/s grâce à ce nouveau type de puce. La fabrication en série de ces puces devrait commencer d'ici 5 ans.
C'est dans ce contexte d'effervescence technologique et économique que le Sénat est venu jeter un pavé dans la mare avec le rapport d'Hervé Maurey et Philippe Leroy concernant l'aménagement optique et numérique du territoire. Dans ce rapport publié cet été et qui ne manie pas la langue de bois, on peut lire qu'il sera tout simplement impossible pour le gouvernement de tenir ses objectifs de couverture, notamment dans les zones les moins denses.
Certes, l'accord entre Orange et SFR est venu depuis changer la donne et redonner des couleurs au déploiement généralisé de la fibre optique mais les propositions et conclusions de ce rapport méritent tout de même d'être méditées. Parmi celles-ci, il est notamment proposé, sur le modèle australien, de confier les déploiements à des entreprises du BTP "pour qui les questions de retour sur investissements à long terme ne posent pas de problème, contrairement aux opérateurs télécoms". Ces entreprises pourraient ensuite louer leurs concessions aux opérateurs.
Autre proposition qui fait couler beaucoup d'encre : garantir un accès opposable au haut débit à 2 Mb/s dès 2012 et 8 Mb/s en 2015. Les ménages qui seraient encore privés d'accès haut débit à cette vitesse à ces échéances pourraient alors poursuivre l'Etat ! Il y a quelques jours, ce rapport a inspiré une proposition de loi reprenant l'essentiel de ses propositions. Le texte propose par exemple de rendre obligatoire un plan d'aménagement numérique départemental intégrant le haut débit, fibre et mobile.
Ces réflexions et initiatives parlementaires sont intéressantes car elles placent notre pays devant ses responsabilités : il est en effet inconcevable, compte tenu de la rapidité de la mutation planétaire vers l'économie numérique et cognitive et de la nécessité de sortir par l'innovation et la créativité de la crise mondiale sans précédent que nous traversons, que notre pays attende 2025 pour que chaque foyer dispose enfin d'un accès à très haut débit à l'Internet et aux services numériques. Il faut donc changer de logique, combiner et intégrer les révolutions technologiques en cours pour que dans 5 à 7 ans au plus tard et non dans 15 ans, échéance trop lointaine, 90 % des foyers français puissent avoir accès au très haut débit, soit directement par voie optique physique, soit par le biais des nouvelles technologies très haut débit radio ou satellitaire.
Le mieux est souvent l’ennemi du bien et comme il est peu probable, en cette période de crise financière et de restriction durable des finances publiques que la collectivité trouve les ressources pour réaliser, dans un délai rapide, le raccordement optique de tous les foyers français et qu'on peut également douter que les opérateurs privés, malgré l'accord entre Orange et SFR, soient pressés d'aller installer la fibre optique au fond de nos campagnes, il faut changer notre approche à la fois sur le plan économique, en imaginant de nouveaux types de partenariat public-privé et, sur le plan technologique, en misant sur une combinaison entre fibre optique et nouvelles technologies très haut débit sans fil, qu'elles soient satellitaires, optique (Laser) ou radio.
Un proverbe chinois dit "Qu'importe que le chat soit noir ou blanc pourvu qu'il attrape des souris". Face à l'arrivée de nouvelles technologies très haut débit sans fil que nous ne pouvions même pas imaginer il y encore cinq ans, nous devons faire preuve de pragmatisme et d'imagination et utiliser pleinement le potentiel de ces nouveaux outils, en association avec la fibre optique, pour diviser par deux ou trois le délai de généralisation du très haut débit pour tous et entrer pleinement dans la société de la connaissance.
René TREGOUET
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Depuis au moins 40 ans, les scientifiques tentent de s'inspirer de l'extraordinaire fontionnement du cerveau pour concevoir un nouveau type d'ordinateur doté d'intelligence artificielle. Une équipe du MIT est en train de mettre au point une puce électronique qui mime le fonctionnement des neurones. Ce circuit d’environ 400 transistors en silicium imite en effet la manière dont les neurones du cerveau humain s'adaptent en réponse à de nouvelles informations. Ce phénomène, connu sous le nom de plasticité, est à l'origine de nombreuses fonctions du cerveau, comme la mémoire ou l'apprentissage.
Cette puce simule en effet l'activité d'une synapse, l’élément qui assure la connexion entre deux neurones pour la circulation de l'information. Elle sera utile aux neuroscientifiques pour apprendre davantage sur le fonctionnement du cerveau. Elle pourrait également être utilisée dans les prothèses neurales telles que les rétines artificielles.
Le cerveau humain comporte environ 100 milliards de neurones, reliés les uns aux autres par des synapses. L’activité synaptique repose sur des canaux ioniques, qui contrôlent le flux d'atomes chargés tels que le sodium, le potassium et le calcium. Les chercheurs du MIT ont conçu leur puce de sorte que les transistors puissent mimer l'activité de ces canaux ioniques. Alors que les puces traditionnelles fonctionnent dans un mode binaire, le courant qui circule à travers les transistors de ce prototype varie selon un mode analogique, à l’image des flux des ions dans les canaux ioniques.
Les chercheurs du MIT prévoient d'utiliser cette puce pour construire des systèmes de modélisation des fonctions spécifiques des neurones, tels que le système de traitement visuel. Ces systèmes pourraient être beaucoup plus rapides que les ordinateurs actuels à base de puces numériques. Même sur des systèmes informatiques de grande capacité, il faut des heures ou des jours pour simuler un circuit cérébral simple.
Avec le système de puces analogiques, la simulation est encore plus rapide que le système biologique lui-même. Une autre application potentielle est la construction des puces capables de s'interfacer avec les systèmes biologiques. Cela pourrait être utile pour la communication entre les prothèses neurales telles que des rétines artificielles et le cerveau. Enfin, ces puces pourraient devenir des blocs de construction pour des dispositifs d'intelligence artificielle.
MIT
|
|
|
|
|
|
|
|
Les députés européens ont adopté jeudi 17 novembre 2011 une résolution qui demande à la Commission de s'assurer du respect de la neutralité du Net par les fournisseurs d'accès à Internet. Pour le Parlement, cette neutralité se définit notamment par l'absence de discrimination, un accès à tout contenu, application ou service pour tous les utilisateurs, une égalité de traitement de trafic quels que soient le contenu, la source ou la destination.
Cette résolution estime « importants » les risques que « pourrait soulever la violation des principes de la neutralité d'Internet – tels que comportement anticoncurrentiel, blocage de l'innovation, restrictions à la liberté d'expression et au pluralisme des médias, manque de sensibilisation des consommateurs et atteintes à la vie privée ». En avril dernier, la Commission européenne avait, dans une communication, estimé que les règles existant au niveau de l'Union suffisaient à garantir la neutralité du Net. Elle y écrivait notamment la nécessité d'une gestion du trafic, pour éviter la « congestion des réseaux ».
Dans sa résolution, le Parlement européen souligne un risque de « comportement anticoncurrentiel et discriminatoire dans la gestion du trafic ». La résolution reconnaît néanmoins « la nécessité d'une gestion raisonnable du trafic afin de garantir que la connectivité des utilisateurs finaux n'est pas interrompue ». Les élus souhaitent que la Commission étudie si d'autres mesures réglementaires sont nécessaires, ou non, et qu'elle surveille les pratiques de gestion du trafic, en coopération avec le Berec (organisme des régulateurs des communications électroniques européens) et les Etats membres.
Parlement européen
|
|
|
|
|
|
|
|
Le dispositif créé ne permet, pour l’instant, que l’affichage d’un seul pixel mais il valide la technique employée par les ingénieurs de l’Université de Floride.
Dans une étude publiée par le Journal of Micromechanics and Microengineering, une équipe présente la première lentille de contact informatisée capable d’afficher une information à la demande. À l'heure actuelle, le dispositif ne contient qu'un seul pixel mais les chercheurs voient cela comme une «preuve de concept » ouvrant la voie à la production de lentilles avec plusieurs centaines de pixels qui pourront alors afficher des courriels ou des messages courts juste devant les yeux.
Le dispositif pourrait aussi superposer des informations générées par ordinateur sur l’environnement immédiat, être utilisé pour des jeux vidéo ou des systèmes de navigation. Il pourrait également être lié à des biocapteurs dans le corps de l'utilisateur et afficher des renseignements en temps réel sur le taux de sucre dans le sang par exemple.
La lentille de contact, créée par des chercheurs de l'Université de Washington (Etats-Unis) et l'Université Aalto (Finlande), se compose d'une antenne permettant de recevoir des signaux envoyés par une source externe ainsi que d'un circuit intégré permettant de stocker de l’énergie et de la transférer à une puce transparente contenant une seule LED bleue.
Le problème majeur que les chercheurs ont dû surmonter était le fait que l'œil humain, avec sa distance focale minimale de plusieurs centimètres, ne peut pas voir distinctement des objets qui s’affichent sur une lentille de contact. Toutes les informations projetées apparaîtraient trop floues pour être lisibles.
Pour lutter contre cela, les chercheurs ont intégré une série de lentilles de Fresnel dans le dispositif (qui malgré tout cet attirail est similaire à une lentille optique traditionnelle) pour focaliser l'image projetée sur la rétine. Des premiers tests, réalisés sur des lapins, ont prouvé l’innocuité du système. Il reste maintenant à améliorer « la conception de l'antenne et le réseau associé correspondant, et d'optimiser la fréquence de transmission » précise Babak Praviz, un des auteurs de l’étude. « Notre prochain objectif, est d'incorporer un texte prédéterminé sur la lentille de contact » conclut le chercheur.
Sciences et Avenir
|
|
|
|
|
|
|
|
La transmission du savoir dans les sciences humaines doit absolument passer par la numérisation et la digitalisation des travaux. C'est en substance le constat émis par les membres de l'European Science Foundation (ESF) dans un rapport paru récemment. Pour eux, il est essentiel que les infrastructures de recherches classiques (archives, bibliothèques, académies mais également musées et galeries) tirent parti des évolutions technologiques afin de constituer des bases de données accessibles au plus grand nombre, comme dans d'autres disciplines scientifiques. En cause, le désintérêt des chercheurs en place, réticents à modifier leur mode de fonctionnement et ne voyant pas forcément l'intérêt d'une telle entreprise.
"Il est urgent de coordonner nos efforts et de standardiser la mise en ligne des travaux, ne serait-ce que pour éviter la reprise d'idées déjà traitées ou encore la séparation d'équipes œuvrant sur le même sujet et pouvait ainsi mettre en commun leurs avancées", explique Milena Zic Fuchs, membre de l'ESF. La digitalisation du savoir devrait donc essentiellement permettre aux chercheurs de mieux communiquer entre eux : il serait ainsi plus facile à des scientifiques isolés de faire connaître, traduire leur projet ou de recevoir un soutien logistique et intellectuel de la part de collègues situés à l'autre bout du monde.
Mais l'intérêt est aussi stratégique et s'inscrit dans une logique de multidisciplinarité. L'ESF est convaincue que pour continuer à progresser, les sciences humaines ont besoin de l'apport d'autres communautés scientifiques et de leurs ressources. Il sera bien plus aisé de collaborer avec des chercheurs de spécialités différentes si toutes les données sont disponibles à l'avance sur des serveurs en ligne. Cela devrait également faciliter l'élaboration de modèles d'investissement et de financement hors des frontières de son propre pays ainsi que la mise en place des copyrights.
L'Atelier
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Constatant l'inefficacité croissante des antibiotiques classiques, l'agence de recherche de l'armée américaine (DARPA), vient de lancer un appel d'offres pour remplacer cette voie découverte à la fin des années 20. La DARPA finance donc des recherches sur la mise au point de nano-médicaments programmés sur mesure pour viser directement les cellules responsables d'une infection. A l'heure actuelle, les antibiotiques sont chargés de détruire -ou de ralentir la croissance- des bactéries. Mais leur utilisation est peu ciblée : un même antibiotique est souvent chargé de lutter contre différentes types d'agents infectieux. Surtout, dans les pays développés, leur surconsommation a conduit à l'apparition de bactéries résistantes, selon DARPA.
L'agence estime que les recherches en génétique ont atteint un niveau suffisant pour explorer plus sérieusement la piste des nano-médicaments. L'idée, c'est d'attacher à ces molécules un brin de «petit ARN interférent» qui peut se fixer sur une cellule et empêcher l'expression d'un gène spécifique, une approche également porteuse d'espoirs pour certains cancers.
La méthode a déjà été testée avec succès dans le cas de virus chez le chimpanzé et même si la mise au point de telles nanomolécules coûte cher et prend du temps, la Darpa est persuadée que les nanomédicaments sont une voie d'avenir non seulement pour combattre des bactéries résistantes aux antibiotiques, mais aussi pour lutter contre de futurs agents infectieux modifiés par l'homme, notamment à des fins terroristes.
Wired
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Le projet Microsol a été retenu dans le cadre des Investissements d’Avenir. Il est porté et piloté par la branche Stratégie & Innovation de Schneider Electric, avec la participation de 8 partenaires. Son objectif est d’équiper les populations coupées des réseaux électriques et n’ayant pas accès à l’eau potable, de dispositifs simples mais durables de production d’énergie et d’eau potable à partir des ressources naturelles disponibles.
L'objectif de Microsol consiste à convertir la chaleur solaire en énergie électrique sans utilisation de batterie : la chaleur est stockée sous forme d'eau chaude sous faible pression. Un panneau solaire thermique permet de chauffer à moyenne température de l’eau pour produire de l’électricité via une machine thermodynamique, à raison de 150 KWh par jour. Une quantité suffisante pour alimenter en électricité près d’une centaine de foyers en utilisation courante (éclairage, usage domestique..). Via une unité de dessalement d’eau AquaStill fournie par la société TMW, la machine pourra également produire plusieurs mètres cubes d’eau potable par dessalement d’eau de mer ou d’eau saumâtre. L’énergie nécessaire au procédé viendra de la chaleur excédentaire produite par les capteurs solaires qui ne peut être convertie en électricité.
L’opération, dont le budget global se monte à 10,9 millions d’euros, débute par la construction d’un prototype sur le site de Cadarache (13) en collaboration avec l’Institut National de l’Energie Solaire (INES), un site présentant des avantages en termes d’exposition solaire (2 700 heures d’ensoleillement par an en moyenne). Les neuf partenaires apporteront chacun leur savoir-faire à une étape clef de la fabrication de la solution Microsol. TMW travaillera à l’élargissement de ses modules pour augmenter la capacité de production d’eau. La start-up Stiral apportera quant à elle son savoir-faire dans la conception de la machine thermodynamique.
Si le projet de test Microsol est concluant, une opération de démonstration aura lieu dans deux pays d’Afrique, fin 2013, début 2014 pour une durée d’un an. A ce stade, le projet sera supervisé par le service de Développement Durable de Schneider Electric pour son programme d’entreprise BipBoP (Business Innovation People for the Base Of the Pyramid). Ce programme BipBop vise notamment à proposer une alternative au groupe diesel électrogène et aux systèmes utilisant des batteries électrochimiques. Une ultime étape de commercialisation représenterait, selon Schneider Electric, un potentiel de plus d’un million de sites à équiper dans le monde.
Industrie & Technologies
|
|
|
|
|
|
|
|
Le gouvernement turc a décidé récemment un quasiment doublement de la production électrique de la première centrale à cycle combiné avec énergies renouvelable intégrées (Integrated Renewables Combined-Cycle ou IRCC). Tout d'abord, General Electric (GE) et l'entreprise énergétique turque MetCap Energy Investments ont annoncé leur investissement dans le projet Eurostar, une centrale au gaz naturel dotée d'une capacité de 878 mégawatts (MW) qui devrait aider à alimenter Istanbul en électricité.
Ensuite, la centrale IRCC Dervish à Karaman en Turquie qui a été lancée en juin 2011, se base sur la technologie de pointe FlexEfficiency50* à cycle combiné de GE. L'extension de licence permet à la production d'énergie d'augmenter de 570 à 1080 mégawatts. Pour le projet Dervish, elle ouvre aussi la voie à une deuxième centrale qui utiliserait la technologie FlexEfficiency* de GE et les technologies d'énergie solaire concentrée d'eSolar. Le projet phare Dervish permettra ainsi au réseau électrique turc d'utiliser plus d'éolien, de solaire et de gaz naturel, et de satisfaire une demande grandissante en "production d'énergie propre, fiable et à un prix abordable".
Une fois achevée, la centrale électrique Eurostar, qui comporte deux turbines à gaz Frame 9FB, une turbine à vapeur et un générateur à vapeur de récupération de chaleur, produira une énergie équivalente à l'énergie utilisée par 2,3 millions de foyers stambouliotes. En plus d'une efficacité thermique de plus de 58 %, le projet Eurostar sera doté d'une fonction zéro décharge liquide, d'une capacité de réponse rapide de démarrage en 35 minutes, tout en produisant moins d'émissions. La centrale se situera à Kirklareli, aux abords d'Istanbul. La mise en opération commerciale de la centrale électrique est prévue pour 2014.
La phase initiale du projet IRCC a été annoncée à la conférence POWER-GEN Europe en juin. Ce projet comprend la technologie FlexEfficiency* de GE, qui offre une flexibilité d'opération à l'intégration du gaz naturel, de l'éolien et du solaire en un seul complexe énergétique. L'agrandissement proposé de la centrale Dervish devrait entrer en exploitation industrielle en 2016, et une fois qu'elle serait complétée selon la nouvelle licence, elle fournirait de l'électricité à plus de 1,2 millions de foyers turcs.
La centrale IRCC comprend une turbine à gaz 50-hertz 9FB de dernière génération, une turbine à vapeur, un générateur, 22 mégawatts d'éoliennes de GE et 50 mégawatts de la technologie concentrée d'eSolar de tour solaire thermique, le tout intégré de façon transparente dans un système de contrôle de la centrale Mark* Vle de GE à bouton de démarrage unique. Dans les conditions du site de MetCap, cette technologie est capable d'atteindre un niveau record de 69 % d'efficacité thermique. En plus des nouvelles normes mondiales d'efficacité, la centrale électrique Dervish comportera une fonction zéro décharge liquide, une capacité de réponse rapide de démarrage en 28 minutes et produira moins d'émissions.
eSolar est un fournisseur de technologie concentrée de tour solaire thermique dernière génération basé en Californie. Grâce à un investissement de GE et MetCap annoncé en juin, GE Energy a déjà un accord de licence avec eSolar, qui donne à GE les droits exclusifs mondiaux de la technologie modulaire d'eSolar pour sa solution de centrale électrique à cycle combiné avec énergie solaire intégrée (Integrated Solar Combined Cycle ou ISCC).
La technologie de centrale électrique d'eSolar utilise de petits miroirs plats préfabriqués appelés des héliostats. Ces derniers permettent de chercher le soleil et de refléter sa chaleur vers un récepteur monté sur tour. Ceci génère une vapeur utilisée alors par le bloc d'alimentation de la centrale pour créer de l'électricité. Des milliers d'héliostats sont alignés et contrôlés grâce à des algorithmes logiciels afin de focaliser l'énergie solaire avec précision. La technologie d'eSolar est conçue pour fournir des champs modulaires qui maximisent la production d'énergie, évoluent pour satisfaire une large gamme de besoins clients en production énergétique, tout en permettant un déploiement rapide et à moindre coût.
Enerzine
|
|
|
|
|
|
|
|
Quarante millions d’euros d’investissement, 4 ans d’expérimentation, 1000 particuliers testeurs à Lyon et Grenoble, et cinq partenaires majeurs du secteur énergétique (ERDF, GDF Suez, Schneider Electric, Gaz Electricité de Grenoble et Grenoble INP).
Le projet GreenLys de « réseau intelligent » entend répondre aux enjeux des nouveaux modes de production d’électricité, d’augmentation de la consommation, de multiplication des acteurs et de souci de l’environnement. Ce réseau « intelligent » ou « communicant » doit permettre aux fournisseurs de mieux gérer leur production, aux distributeurs d’anticiper les périodes de forte demande. D’intégrer aussi la production décentralisée intermittente. L’une des réalités à gérer est celle d’une consommation d’électricité qui augmente et dont le pic à risque de 19 heures, augmente, lui, encore plus. D’où la nécessité, dans le cadre d’un intérêt partagé, d’inciter le client à mieux consommer en heures creuses et moins en heures pleines pour une facture allégée et moins d’empreinte carbone.
Les testeurs recherchés seront dotés de compteurs Linky, les fameux compteurs communicants, et de box de gestion de l’énergie électrique. « Il faut un client engagé qui comprend son rôle dans le système global », défend Jacques Longuet directeur régional d’ERDF. Les partenaires reconnaissent qu’ils ne trouveront pas d’emblée 1 000 volontaires, mais comptent sur quelques centaines, et l’observation des comportements lors de la période de chauffe qui débute, pour en tirer les premiers enseignements fiables.
Concernant l’aspect privé des données communiquées, « la confiance est nécessaire. Le client doit avoir des garanties sur la bonne utilisation de ses informations », livrent les partenaires.
Greenlys reçoit le soutien de Lyon et de Grenoble retenues notamment pour leurs éco-quartiers (Confluence à Lyon et ZAC de Bonne et Presqu’île à Grenoble).
Le Progrès
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l’université américaine Northwestern vient de publier un article dans la revue Advanced Energy Materials faisant part de leurs travaux sur les batteries au lithium-ion, qui équipent aujourd’hui nos mobiles, tablettes et ordinateurs portables. Leurs perspectives sont prometteuses. "Nous avons trouvé un moyen de multiplier l’autonomie d’une batterie au lithium-ion par dix au début de [s]a vie", a expliqué Harold H. Kung, qui supervise les recherches, dans un communiqué. Il ajoute que, « même après 150 charges, soit un an ou plus d’utilisation, la batterie est toujours cinq fois plus efficace que [celles au] lithium-ion disponibles sur le marché ». Deuxième avantage de ces accumulateurs d’un nouveau genre : ils se rechargent en quelques minutes !
Pour comprendre comment l’équipe de Kung est parvenue à améliorer les performances du lithium-ion, il faut se pencher sur les limitations des batteries, chargées grâce à un transfert d’ions de la cathode vers l’anode et qui fournissent ensuite de l’énergie lorsque ces mêmes ions quittent l’anode pour se rendre vers la cathode. Problème, la quantité d’ions que peut stocker l’anode est très limitée. Les chercheurs américains sont parvenus à améliorer les performances des batteries au graphène, un nouveau matériau issu du graphite, très prometteur pour les batteries du futur. « L’anode – faite de feuilles de graphène empilées les unes sur les autres – peut seulement contenir un atome de lithium pour six atomes de carbone, dont est composé le graphène », indique l’équipe universitaire.
Or ces chercheurs sont parvenus, en modifiant l’anode, à caser bien plus d’ions. Pour cela, ils ont, entre les feuilles, emprisonné des grappes de silicium, capables de retenir davantage d’ions (quatre ions pour chaque atome de silicium). Résultat : la densité d’énergie est décuplée, et la batterie peut tenir la charge bien plus longtemps. Pour accélérer le chargement, l'équipe de Kung a réussi à modifier l’accumulateur : grâce à un procédé chimique d’oxydation, elle a créé de minuscules trous dans les feuilles de graphène, qui servent de raccourcis aux ions lorsqu’ils transitent de la cathode vers l’anode pour trouver leur place entre deux feuilles de graphène. Ils n’ont donc plus besoin de passer par les côtés des feuilles, ce qui met fin au phénomène "d'embouteillage" des ions.
Cette percée permet de réduire par dix la durée de la charge. Les chercheurs vont désormais se pencher sur la cathode, pour tenter d’améliorer encore l’efficacité des batteries. Ils souhaitent par ailleurs développer une technique qui permettra à la batterie de se couper automatiquement si elle se met à trop chauffer. Une sécurité qu’ils imaginent surtout pour les accumulateurs de voitures électriques, qui pourraient également, grâce à ces recherches, disposer de batteries plus petites et plus efficaces. L’équipe prévoit une arrivée sur le marché de ces batteries révolutionnaires d’ici trois à cinq ans.
Université Northwestern
|
|
|
|
|
|
|
|
Une équipe internationale de scientifiques a démenti que des neutrinos (particules élémentaires) puissent voyager à une vitesse supérieure à la lumière, ce qu'affirme une autre équipe du même laboratoire en Italie. L'annonce en septembre que des neutrinos pouvaient dépasser, même de très peu, la vitesse de la lumière (300.000 km/s), avait fait l'effet d'une bombe, car cela, en cas de confirmation, invaliderait l'une des lois de l'univers mises en évidence par Einstein, à savoir que rien ne peut aller plus vite que la lumière.
La première équipe, qui participe à l'expérience Opera au laboratoire du Gran Sasso, au sud de Rome, a dit avoir établi que des neutrinos avaient mis, entre le centre de recherche du Cern près de Genève et le laboratoire du Gran Sasso, 60 nanosecondes (milliardièmes de seconde) de moins que la lumière n'en aurait mis pour parcourir cette distance de 730 kilomètres. Mais Icarus, autre expérience menée au Gran Sasso, laboratoire enterré sous les montagnes et dirigé par l'Institut national italien de physique, estime au vu de ses propres relevés que l'énergie des neutrinos à l'arrivée contredit la conclusion d'Opera. Dans un document posté récemment sur le même site Internet que les résultats d'Opera, l'équipe d'Icarus estime que ses propres conclusions "réfutent l'interprétation supraluminique du résultat d'Opera".
Selon eux, et sur la base d'études parues récemment aux Etats-Unis, les neutrinos catapultés à partir du Cern auraient dû perdre la majeure partie de leur énergie s'ils avaient voyagé ne serait-ce qu'à une infime fraction plus vite que la lumière. Dans les faits, disent les chercheurs d'Icarus, le rayon de neutrinos a donné un spectre d'énergie correspondant totalement à ce qu'il en est pour des particules qui se déplacent exactement à la vitesse de la lumière. Le physicien Tomasso Dorigo, qui travaille au Cern, et le Fermilab de Chicago déclarent sur le site Internet Scientific Blogging que le document d'Icarus est "très clair et fait autorité". Le laboratoire du Gran Sasso, à 120 km au sud de Rome, est le plus grand de ce type au monde pour la physique des particules et les recherches cosmiques. Environ 750 scientifiques de 22 pays y travaillent, attirés par la possibilité de mener des expériences dans ses trois vastes salles, protégées des rayons cosmiques par 1.400 mètres de roches.
Sciences 20
|
|
|
|
|
|
|
|
Le développement massif du parc automobile électrique, que certains attendent pour la prochaine décennie et que le gouvernement britannique appelle de ses voeux afin de respecter ses objectifs de décarbonisation de l'économie, pourrait aussi se révéler être un véritable cauchemar pour les gestionnaires des réseaux électriques de distribution au Royaume-Uni.
En effet, dans un scénario où plusieurs millions de voitures électriques seraient en circulation, il y a fort à parier que ces millions d'utilisateurs aient le même reflexe de charger leur voiture en rentrant du travail, c'est-à-dire vers 18 ou 19h. Ceci correspond précisément au moment où la demande en électricité est la plus importante et où les réseaux de distribution doivent gérer des flux d'énergie conséquents. Il faut aussi bien garder à l'esprit que le rechargement d'une voiture est une charge non négligeable par rapport à la consommation d'un foyer standard. Bien sûr, si on s'intéresse à une moyenne au niveau national, l'impact n'est pas nécessairement énorme, mais le principal problème réside dans les grappes de points de chargement qui vont s'établir dans certaines zones du réseau.
Afin d'éviter une surcharge des réseau lorsqu'un grand nombre d'utilisateurs rechargent leur voitures au même moment, des chercheurs de l'Université de Cardiff travaillent sur le développement de logiciels qui permettraient aux Distribution Network Operators (DNO, gestionnaires des réseaux de distribution) de gérer un grand nombre de cycles de chargement et déchargement de batteries de voitures électriques, en les traitant comme une seule unité de génération ou de consommation. Grâce à ce type de logiciel, les batteries de voitures des particuliers pourraient également servir pour stocker de l'électricité produite en période de basse demande. Ceci pourrait se révéler crucial pour gérer l'intégration de grandes quantités d'électricité produite à partir de sources d'énergie renouvelables qui sont également intermittentes (par exemple, l'électricité éolienne n'est pas nécessairement produite au moment où les consommateurs en ont besoin).
Ce type de logiciel, qui sera développé sur deux ans grâce à un financement de l'Engineering and Physical Sciences Research Council (EPSRC, Conseil pour la recherche en sciences physique et en ingénierie) en partenariat avec des sociétés comme EON, est appelé "EV aggregator". Il vise à gérer la relation entre les points de chargement individuels et le réseau électrique à travers la prévision de l'énergie dont auront besoin les voitures et le prix du marché à différentes périodes de la journée. Ce logiciel agrégateur pourra contrôler une grappe de points de chargement chez des individus ou gérer un unique point de connexion au réseau qui fournit de l'électricité à plusieurs bornes de chargement, comme sur un parking de supermarché ou de bureaux.
Après une période initiale d'analyse des données issues des différentes expérimentations d'utilisation de véhicules électriques, afin de mieux comprendre le comportement des utilisateurs, les ingénieurs développeront des algorithmes pour gérer ces agrégateurs, puis les testeront grâce à des simulations. Le comportement potentiel des particuliers et encore mal connu par les DNO : à quel moment exact de la journée doit-on s'attendre à ce qu'ils rechargent leur voiture ? Le rechargement des voitures sur les parkings des supermarchés peut-il être considéré comme aléatoire ?
L'intégration toujours croissante de quantité d'électricité d'origine renouvelable conduit donc les scientifiques à s'intéresser aux moyens de gérer les batteries de véhicules électriques comme un moyen d'optimiser la demande en électricité et également comme un moyen de stockage afin de lisser la courbe de consommation. Autant d'étapes qui vont dans le sens de l'établissement d'un réseau électrique intelligent au Royaume-Uni. Mais les chercheurs s'intéressent également aux batteries elles-mêmes.
Au-delà des efforts pour développer des technologies augmentant leur capacité ou réduisant leur durée de rechargement, des ingénieurs d'Imperial College London, en partenariat avec Volvo, s'intéressent également à de nouveaux matériaux capables de stocker de l'électricité et qui soient suffisamment légers et solides pour être employés pour fabriquer ... des morceaux de la voiture elle-même ! Ce projet de 3,4 M euros débuté l'an dernier, s'intéresse à des matériaux composites à base de fibres de carbone qui pourraient être utilisés pour fabriquer les portières ou divers autres éléments de carrosserie des voitures du futur. Ces matériaux auraient également des applications pour rendre plus légers des objets comme les téléphones ou ordinateurs portables.
Bulletins Electroniques
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
La Medicago truncatula ou luzerne tronquée est une plante fourragère, proposée comme légumineuse modèle par l’Inra dans les années 1980. Elle fait partie de la famille des Fabaceae (anciennement Légumineuses). Les légumineuses jouent un rôle économique majeur : elles constituent une source importante de protéines végétales pour l’alimentation animale et humaine et leur culture ne nécessite pas de fertilisation azotée, ce qui représente un avantage économique mais aussi environnemental. Elles sont ainsi utilisées dans la rotation des cultures. La production mondiale représente environ 300 millions de tonnes par an.
La capacité des légumineuses à fixer l’azote atmosphérique est un caractère unique parmi les plantes cultivées. Elle résulte de la symbiose avec des bactéries du sol appelées Rhizobium qui induisent la formation des structures appelées nodosités au niveau des racines de la plante. Ces bactéries produisent une enzyme, la nitrogénase, dont les plantes sont dépourvues et qui permet aux légumineuses de fixer l’azote atmosphérique. En échange, la plante fournit les éléments nutritifs nécessaires au développement des bactéries.
Grâce à une collaboration internationale, les chercheurs de l’Inra ont décrypté la quasi-totalité du génome de Mt. Il comporte 8 chromosomes et la France a réalisé le séquençage des deux bras du chromosomes n° 5, soit 45 millions de paires de bases, avec une finition complète. Ces travaux ont révélé qu'une duplication de l'ensemble du génome au moment de l'apparition des légumineuses, il y a environ 60 millions d'années, a joué un rôle majeur dans la formation du génome de Mt en favorisant la mise en place d’un programme génétique permettant une vie symbiotique avec les Rhizobium. En effet, grâce à cette duplication du génome, des gènes impliqués dans une symbiose beaucoup plus ancienne avec des champignons mycorhiziens ont évolué et donné naissance à des gènes impliqués dans la symbiose fixatrice d'azote.
Mt est très proche, d'un point de vue phylogénétique, de la plupart des légumineuses cultivées en Europe comme le pois protéagineux, la féverole, la luzerne ou les trèfles. Il existe une forte conservation de l'ordre dans lequel les gènes sont situés sur les chromosomes de ces espèces (conservation synténique). La connaissance de la séquence du génome de Mt a permis la détermination de l'ordre de la majorité des gènes sur les huit chromosomes. Ainsi, cette connaissance devrait grandement faciliter la localisation des gènes importants chez les légumineuses cultivées. L'amélioration génétique des légumineuses est indispensable pour permettre leur introduction plus fréquente dans les rotations de cultures pour développer des systèmes durables et moins consommateurs d’intrants, en particulier les nitrates, dont la production est coûteuse en énergie.
INRA
|
|
|
|
|
|
|
|
Les concentrations de gaz à effet de serre dans l'atmosphère ont atteint de nouveaux pics en 2010, et le taux d'accroissement de ces gaz s'est accéléré, d'après le dernier bulletin de l'Organisation météorologique mondiale (OMM) sur les gaz à effet de serre, qui met particulièrement l'accent sur l'augmentation de la concentration de protoxyde d'azote.D'après ce bulletin, le forçage radiatif de l'atmosphère par les gaz à effet de serre, qui induit un réchauffement du système climatique, s'est accru de 29 % entre 1990 et 2010, le dioxyde de carbone contribuant pour 80 % à cette augmentation.
«La teneur de l'atmosphère en gaz à effet de serre d'origine anthropique a atteint une fois de plus des niveaux jamais enregistrés depuis l'époque préindustrielle», a déclaré le Secrétaire général de l'OMM, Michel Jarraud. «Même si nous parvenions à stopper aujourd'hui nos émissions de gaz à effet de serre, ce qui est loin d'être le cas, les gaz déjà présents dans l'atmosphère y subsisteraient encore pendant des dizaines d'années et continueraient de perturber le fragile équilibre de la Terre, planète vivante, et du climat.»
Les gaz à effet de serre captent une partie du rayonnement traversant l'atmosphère terrestre qui, de ce fait, se réchauffe. Les activités humaines telles que l'agriculture et l'exploitation des combustibles fossiles émettent une grande quantité de ces gaz, qui font partie des causes du changement climatique. Après la vapeur d'eau, les trois gaz à effet de serre persistants les plus abondants dans l'atmosphère sont le dioxyde de carbone, le méthane et le protoxyde d'azote.
Le dioxyde de carbone (CO2) est le gaz à effet de serre d'origine humaine le plus important et contribue pour quelque 64 % à l'accroissement du forçage radiatif mondial dû à l'ensemble des gaz à effet de serre persistants. Depuis le début de l'ère industrielle, en 1750, sa teneur dans l'atmosphère a augmenté de 39 % pour atteindre 389 parties par million (ppm, nombre de molécules du gaz considéré par million de molécules d'air sec), essentiellement à cause des émissions liées à l'exploitation des combustibles fossiles, au déboisement et au changement d'affectation des terres.
Entre 2009 et 2010, sa concentration dans l'atmosphère a augmenté de 2,3 ppm, soit plus que la moyenne des années 1990 (1,5 ppm) et de la décennie écoulée (2,0 ppm). Pendant la dizaine de milliers d'années qui ont précédé la révolution industrielle, vers le milieu du XVIIIe siècle, la teneur de l'atmosphère en CO2 est restée pratiquement constante, se chiffrant à quelque 280 ppm.
Le méthane (CH4) contribue pour quelque 18 % à l'accroissement du forçage radiatif mondial depuis 1750, et c'est le deuxième plus important gaz à effet de serre après le dioxyde de carbone.
Avant l'ère industrielle, la teneur en méthane de l'atmosphère était d'environ 700 parties par milliard (ppb, nombre de molécules du gaz considéré par milliard de molécules d'air sec). Depuis 1750, cette teneur a augmenté de 158 %, principalement du fait des activités humaines telles que l'élevage de bovins, la riziculture, l'exploitation des combustibles fossiles et la mise en décharge des déchets. Environ 60 % des émissions de méthane sont d'origine humaine, les 40 % restants étant d'origine naturelle (zones humides, etc.).
Après une période de stabilisation temporaire relative (1999-2006), la concentration de méthane dans l'atmosphère est repartie à la hausse. Les scientifiques s'efforcent d'en découvrir les causes, en étudiant notamment le rôle que pourraient jouer dans ce domaine la fonte du pergélisol, riche en méthane, dans les régions nordiques et l'accroissement des émissions dans les zones humides tropicales.
Le protoxyde d'azote (N2O) contribue pour quelque 6 % à l'accroissement du forçage radiatif mondial depuis 1750. Ses émissions dans l'atmosphère sont d'origine naturelle et humaine, puisqu'elles proviennent notamment des océans, de la combustion de la biomasse, de l'épandage d'engrais et de divers procédés industriels. Il se place aujourd'hui au troisième rang des gaz à effet de serre par ordre d'importance.
En 2010, la teneur de l'atmosphère en protoxyde d'azote était de 323,2 ppb, soit une progression de 20 % par rapport à l'époque préindustrielle. Le taux d'accroissement moyen est d'environ 0,75 ppb par an sur les dix dernières années, ce qui est dû principalement à l'utilisation d'engrais azotés, notamment de fumier, qui a profondément perturbé le cycle mondial de l'azote.
À horizon de 100 ans, l'impact du protoxyde d'azote sur le climat est 298 fois supérieur à celui du dioxyde de carbone, à émissions égales. Ce gaz joue aussi un rôle important dans la destruction de la couche d'ozone stratosphérique qui nous protège des rayons ultraviolets nocifs émis par le soleil.
Autres gaz à effet de serre : L'ensemble des hydrocarbures halogénés contribuent pour 12 % au forçage radiatif. La concentration des hydrochlorofluorocarbures (HCFC) et des hydrofluorocarbures (HFC), utilisés comme substituts des CFC parce qu'ils portent moins atteinte à la couche d'ozone, augmente rapidement. Ces deux familles de composés sont des gaz à effet de serre très puissants dont la durée de vie dans l'atmosphère est bien supérieure à celle du dioxyde de carbone.
OMM
|
|
|
|
|
|
|
|
La banquise arctique est à son plus bas niveau depuis 1450 ans, selon une étude internationale à laquelle participe une micropaléontologue montréalaise. L'ampleur de la fonte de la glace est aussi sans précédent.
«Il y a eu une diminution de plus de deux millions de kilomètres carrés en 40 ans, explique Anne de Vernal, de l'UQAM. Ça renforce l'idée que les changements climatiques causés par les émissions de gaz à effet de serre produites par l'homme ont déjà des conséquences énormes. C'est un changement très rapide pour les organismes vivants de la région.»
Les chercheurs du Chili, de Norvège, des États-Unis et de Montréal ont rassemblé des sources d'information jusqu'à maintenant utilisées séparément: les carottes prises au fond de l'Arctique et dans les glaciers entourant l'océan, les mesures par satellite et les données tirées des anneaux de croissance de la région. «C'est la première fois qu'on peut utiliser toutes ces données ensemble, dit Mme de Vernal. Il y a des efforts importants en statistiques.»
L'étude indique que le taux de fonte de la banquise, en kilomètres carrés par année, n'est par contre pas unique dans la période étudiée. La fonte après des maximums glaciaires à la fin du Moyen Âge (quand les Vikings ont dû abandonner leurs colonies nord-américaines et au Groenland) et à la fin du XIXe siècle (phénomène lié au naufrage du Titanic) a été plus rapide, quoique moins importante au final.
«Je suis moyennement en accord avec ce qui est écrit, dit Mme de Vernal. Le taux est à mon avis supérieur. Je crois que l'étude donne lieu à des conclusions rigoureuses et prudentes, sans extrapolation. Il est toujours tentant de pousser les conclusions plus loin, mais ce n'est pas la pratique courante dans la communauté scientifique.»
Les chercheurs travaillent maintenant sur des manières de diminuer l'incertitude sur les mesures antérieures à l'an 1000. «Les carottes des sédiments au fond de l'Arctique n'ont pas beaucoup de résolution temporelle, dit Mme de Vernal. Un anneau de croissance d'un arbre, c'est un an. Un centimètre de carotte, ça peut aller jusqu'à 100 ans. On poursuit les travaux pour améliorer ça et pour faire davantage d'échantillonnage. Nous n'avons des arbres morts que pour les 1000 dernières années ».
Cyberpresse
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une technique d'analyse utilisant la lumière infrarouge de grande brillance produite par le synchrotron SOLEIL a été mise en œuvre par des équipes du CNRS, de l'Université Paris Sud, de l'Hôpital Tenon (Hôpitaux universitaires Est Parisien), et du Cancer Centre de Stoke-on-Trent (GB) pour étudier les calcifications présentes dans les reins de patients souffrant d'insuffisance rénale. Les résultats obtenus montrent qu'il devient possible d'identifier différents types de calcifications, dont certaines sont spécifiques de maladies dont le traitement est connu. Obtenues de façon précoce, ces informations permettront de traiter à temps les patients et de leur éviter la perte de leurs reins et, finalement, une greffe de rein.
L'insuffisance rénale chronique, dont le stade terminal est létal, est en croissance spectaculaire dans les pays industrialisés. Sa cause principale est le diabète de type II mais des maladies cristallogènes (qui génèrent des cristaux dans les reins), que l'on sait traiter médicalement pour la plupart d'entre elles lorsqu'elles sont diagnostiquées à temps, peuvent également conduire à une insuffisance rénale terminale. Le seul traitement possible est alors la greffe de rein.
Les maladies cristallogènes sont rares et, de ce fait, souvent mal diagnostiquées. Lorsqu'un patient atteint – à son insu - d'une telle maladie subit une greffe rénale, son nouveau rein va à son tour en être affecté. Des calcifications se forment et bouchent les canaux du rein, empêchant peu à peu complètement sa fonction de « filtration » qui doit être prise en charge par la dialyse, un protocole très lourd et contraignant, jusqu'à la transplantation rénale, si celle-ci est possible. Or les maladies cristallogènes sont curables par des traitements médicamenteux appropriés. On comprend donc aisément l'intérêt de pouvoir les diagnostiquer chez le patient, de façon à éviter la mise en œuvre d'une opération aussi importante qu'une greffe – sans parler du fait que les greffons sont rares.
- Une technique d'analyse unique
Un tel diagnostic peut être réalisé sur les calcifications présentes dans le rein. Il existe plusieurs types de calcifications : certaines sont la « signature » de maladies cristallogènes, alors que d'autres ne sont que la conséquence du mauvais fonctionnement rénal et ne sont pas spécifiques des maladies en question. Il faut donc savoir les distinguer.
Des techniques de caractérisation, consistant en des colorations de ces calcifications, sont déjà utilisées à l'hôpital, mais elles ne permettent pas de différencier précisément les sortes de calcifications. En revanche, la micro-spectroscopie infrarouge utilisant le rayonnement synchrotron (SR µFTIR) lève l'incertitude en quelques minutes, et ceci à partir d'échantillons pouvant être de moins d'une dizaine de microns seulement – ce qui n'est pas le cas avec la technique de spectroscopie classique FTIR, disponible dans quelques laboratoires mais trop peu sensible aux échelles de la taille de ces calcifications. L'information est obtenue sous forme de cartographie chimique de l'échantillon : chaque pixel de quelques microns carré de cette carte informe de la composition chimique précise de la calcification.
Des équipes du CNRS, de l'Université Paris Sud, de l'Hôpital Tenon de Paris, et du Cancer Centre de Stoke-on-Trent (GB) ont analysé sur la ligne de lumière SMIS du synchrotron SOLEIL plus d'une vingtaine de biopsies de rein, provenant de patients souffrant de diverses pathologies rénales. Grâce à l'intensité du rayonnement infrarouge et à la taille microscopique du spot lumineux qui analyse les échantillons, les chercheurs ont réussi à identifier plusieurs types de cristaux, dont la composition était dans certains cas observée pour la première fois. Autre découverte : une même biopsie peut renfermer 2 ou 3 phases cristallines différentes. Il s'agit là des premières preuves scientifiques de la diversité et de l'hétérogénéité des calcifications se formant dans les tissus.
Ces résultats montrent que la technique SR µFTIR est un outil exceptionnel et unique pour l'analyse de calcifications liées aux pathologies rénales. Ils sont porteurs de beaucoup d'espoir quant à l'amélioration du diagnostic et du traitement précoces de certaines déficiences du rein, jusqu'à présent traitées par greffe rénale, parfois itérative du fait de la destruction du ou des greffons successifs par la maladie cristallogène non identifiée.
CNRS
|
|
|
|
|
|
|
|
Un stress soudain active un réseau cérébral constitué de différentes régions, impliquées notamment dans l'attention et l'éveil. Un neuromodulateur produit en cas de stress provoque cette réorganisation cérébrale.
Le stress est une réaction physiologique naturelle qui permet à l'organisme de réagir rapidement face à une situation dangereuse : la tension artérielle et la fréquence cardiaque augmentent et la respiration s'amplifie pour mieux alimenter le cerveau et les muscles en oxygène et en nutriments, et d'autres paramètres physiologiques changent. Le corps se prépare ainsi à la fuite ou au combat. Le cerveau lui aussi voit son état modifié, passant en « mode survie » sous l'effet d'un stress soudain. Emo Hermans, de l'Université de Nimègue aux Pays-Bas, et ses collègues ont déterminé pour la première fois le réseau neuronal qui est alors actif… et l'élément déclencheur de ce mode de survie.
En cas de stress, l'hypothalamus, au centre du cerveau, envoie un signal à la médullosurrénale, la partie centrale de la glande surrénale (au-dessus des reins). Cette glande libère une hormone du stress, l'adrénaline, qui prépare l'organisme à une réaction rapide via une accélération du rythme cardiaque, de la respiration et une activation des plaquettes sanguines pour minimiser la perte de sang en cas de blessure. Puis l'hypothalamus et l'hypophyse (une glande cérébrale située en dessous de ce dernier) libèrent successivement d'autres hormones, ce qui aboutit à la sécrétion de cortisol par la corticosurrénale (la région périphérique de la surrénale). Cette hormone stimule à nouveau l'action de l'adrénaline et celle de la noradrénaline (un analogue de l'adrénaline dans le cerveau et un neuromodulateur), mais prépare aussi l'organisme à un retour à la normale en reconstituant par exemple les stocks d'énergie.
Ce déversement d'hormones dans l'organisme n'est pas sans conséquence pour le cerveau : on sait depuis longtemps que certaines fonctions cognitives sont modifiées en cas de stress. Par exemple, un peu de stress favorise la mémorisation, mais trop de stress diminue cette capacité. Les sens sont aiguisés, l'éveil est renforcé, mais les capacités de raisonnement sont altérées. En effet, les molécules produites en cas de stress renforcent ou affaiblissent les connexions entre neurones.
Et ce n'est pas tout : ces substances changeraient les propriétés de certains réseaux neuronaux, qui passeraient en « mode survie ». Pour le confirmer, E. Hermans et ses collègues ont étudié comment le cerveau réagit à un stress aigu sur des échelles de temps très courtes. Ils ont montré à 80 volontaires des extraits de films soit très violents soit non violents, en étudiant leur activité cérébrale au moyen de l'imagerie par résonance magnétique fonctionnelle. Le signal, d'autant plus intense que le niveau d'oxygénation des neurones est important et que le champ magnétique appliqué est élevé, reflète l'activité des neurones. Les scientifiques ont en outre quantifié les hormones de stress dans la salive des participants et mesuré leur rythme cardiaque.
Ainsi, quand les participants sont exposés à des scènes violentes, l'activité de certaines régions cérébrales, impliquées dans l'attention, l'éveil et le système neuro-endocrinien, et des connexions entre ces régions augmentent, et ce, d'autant plus que le stress est intense. Ces régions forment un vaste réseau qui comprend des aires corticales (par exemple temporales et pariétales) et sous-corticales (l'amygdale, le thalamus, l'hypothalamus et le mésencéphale).
Les chercheurs ont ensuite administré aux participants soit un inhibiteur des récepteurs de la noradrénaline, soit un bloquant de la synthèse de cortisol, soit un placebo. Seuls les deux derniers groupes présentaient alors une réponse cérébrale au stress et une réorganisation des réseaux neuronaux. La noradrénaline active certaines aires de ce réseau tout en en inhibant d'autres, preuve qu'elle provoque cette réorganisation. Elle serait en grande partie responsable du « mode cérébral de survie ».
Pour La Science
|
|
|
|
|
|
|
|
Choisir entre des arbres fruitiers -pour des oiseaux- ou entre des valeurs immobilières -pour des investisseurs- relève du même défi : faire des choix optimaux dans un environnement présentant divers coûts et avantages. Une étude en neuroéconomie menée à l'Institut et hôpital neurologiques de l'Université McGill, montre que le cerveau emploie deux régions et deux processus distincts pour évaluer d'un côté les "biens" (comme les arbres fruitiers) et de l'autre côté les "actions" (les trajectoires de vol par exemple), nécessaires pour les obtenir. Les conclusions de ces travaux ont été publiées dans Journal of Neuroscience.
Jusqu'à présent, la communauté scientifique pensait que pour prendre une décision, le cerveau effectuait, en série, des comparaisons de valeurs : l'information sur la valeur du "bien" contribuant ensuite aux actions. Comme l'explique Lesley Fellows, auteur principal de l'étude, ce travail "cherchait à comprendre comment le cerveau utilise de l'information sur la valeur pour prendre des décisions entre différentes actions et entre différents objets". Mais, surprise, la conclusion est qu'en fait ces deux mécanismes de choix sont indépendants l'un de l'autre. "Ce sont des processus distincts dans le cerveau par lesquels l'information sur la valeur guide les décisions, selon que le choix porte sur des objets ou sur des actions" souligne le docteur Fellows.
Les scientifiques ont examiné l'apprentissage axé sur la valeur d'actions et la valeur de biens chez des individus présentant une lésion dans différentes parties des lobes frontaux. Deux groupes jouaient à des jeux où ils apprenaient à choisir entre deux actions (les mouvements d'une manette) ou entre des objets (des jeux de cartes). Ils gagnaient ou perdaient de l'argent au Monopoly selon leur choix et apprenaient graduellement quels choix étaient les meilleurs.
La capacité des personnes ayant une atteinte du cortex orbitofrontal à faire le bon choix de biens (jeux de cartes) était diminuée, alors qu'elles pouvaient choisir normalement entre différentes actions. Au contraire, les personnes atteintes dans le cortex cingulaire antérieur dorsal (une autre région du lobe frontal), avaient le déficit contraire : elles avaient plus de difficultés pour choisir entre deux actions, alors que le choix des objets était similaire à celui de personnes sans lésion.
Ces résultats indiquent que le cortex orbitofrontal joue un rôle important pour faire le lien entre des biens et leurs valeurs relatives subjectives. Le cortex cingulaire, lui, joue un rôle similaire dans la sélection d'une action fondée sur la valeur. Il semble ainsi que le cerveau ait des systèmes au moins en partie distincts capables de prendre une décision entre des actions et des objets.
Mac Gill
|
|
|
|
|
|
|
|
D'après un article publié dans la revue Annals of Allergy, asthma & immunology par des chercheurs canado-américains, un traitement thermique améliore de façon durable la condition des personnes atteintes d'asthme sévère. Le professeur Michel Laviolette de la Faculté de médecine de l'Université Laval fait partie d'un groupe de recherche qui avait déjà montré, en 2007, que la thermoplastie bronchique pouvait améliorer la condition de personnes souffrant d'asthme modéré ou sévère, dans les premiers mois suivant l'intervention.
Aujourd'hui, une nouvelle étude menée auprès de 166 patients, indique que ces acquis semblent se prolonger à long terme. En ce qui concerne la fréquence des périodes d'exacerbation d'asthme, la capacité respiratoire, la qualité de vie et le contrôle de l'asthme, les améliorations notées dans les mois après le traitement étaient toujours présentes deux ans après l'intervention.
La thermosplastie bronchique est une procédure pratiquée par endoscopie qui consiste à détruire, à l'aide d'un appareil dégageant une chaleur de 60 degrés Celsius, une partie des muscles lisses de la paroi des bronches. C'est la contraction de ces muscles, qui, lors d'une crise d'asthme, entrave le passage de l'air. En détruisant une partie de ces muscles, la thermoplastie atténue le problème. Bien qu'elle ne guérisse pas l'asthme, cette intervention permet d'en atténuer les symptômes et d'améliorer la qualité de vie des personnes qui en souffrent.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Environ 5 % des cancers du sein sont causés par ce gène défectueux, transmis par l’hérédité. Une étude récente montre que l’impact désastreux de ce gène dysfonctionnel est dû à une désorganisation de la structure de l’ADN qui mène à une croissance incontrôlée des cellules.
On sait depuis plusieurs années que les femmes qui ont hérité d’une version mutée des gènes BRCA1 et BRCA2 ont un risque d’être touchées par un cancer du sein (ainsi que des ovaires) beaucoup plus élevé que la population en général. Ainsi, alors que le risque de développer une tumeur mammaire est d’environ 10 % chez les femmes en général, ce risque peut atteindre 85 % pour les porteuses d’un gène BRCA1 défectueux.
Ces cancers sont particulièrement tragiques, car ils surviennent prématurément (avant 50 ans, parfois même beaucoup plus tôt), mettant du même coup en péril la vie de jeunes femmes, souvent mères d’enfant en bas âge. Les femmes issues d’une famille où la mère, une tante ou encore une soeur ont été touchées par un cancer du sein ou des ovaires doivent donc être particulièrement vigilantes et en discuter avec leur médecin, surtout si ces cancers sont survenus avant 40 ans.
La hausse importante du risque de cancer du sein et des ovaires provoquée par des mutations de BRCA1 est due au rôle important de ce gène dans le maintien de l’intégrité du matériel génétique des cellules. En effet, la protéine qui est produite par le gène BRCA1 est localisée dans le noyau où elle fait partie d’une escouade de «gardiens» du matériel génétique spécialisés dans la réparation de dommages qui surviennent spontanément à l’ADN. BRCA1 joue entre autres un rôle critique dans la restauration de cassures particulièrement difficiles à réparer parce qu’elles touchent les deux brins de la molécule d’ADN. Chez les porteuses d’une mutation du gène BRCA1, cette protéine de réparation est non-fonctionnelle et les cellules accumulent par conséquent de multiples dommages dans leur matériel génétique. Avec le temps, ces dommages mènent à un dérèglement des mécanismes de contrôle de la croissance des cellules et, ultimement, à une hausse spectaculaire de l’incidence des cancers du sein et des ovaires.
En plus de ses fonctions de réparation, une étude récente indique que BRCA1 pourrait aussi jouer un rôle important dans l’organisation de la structure physique de l’ADN. En conditions normales, seule une partie de l’ADN est utilisée par la cellule pour fabriquer les protéines requises pour son fonctionnement ; la majorité du matériel génétique (qu’on nomme ADN non codant) est généralement empaquetée de façon très compacte et demeure silencieuse, c’est-à-dire que l’ADN est enroulé sur lui-même et reste inaccessible. Une équipe de chercheurs américains a montré que dans les cellules dépourvues de BRCA1, ces régions normalement silencieuses étaient au contraire très actives et produisaient de grandes quantités d’intermédiaires appelés ARNs. Ils ont observé que la présence anormale de ces ARNs perturbe complètement l’organisation du matériel génétique, provoquant des cassures dans plusieurs régions de l’ADN et une perturbation des mécanismes impliqués dans le contrôle de la croissance des cellules.
Cette découverte est importante, car elle pourrait permettre le développement d’outils diagnostiques capables de détecter de façon très spécifique la présence de ces ARNs anormaux et ainsi de détecter une tumeur du sein à un stade précoce, augmentant du même coup les chances de guérison de la personne atteinte. L’amélioration du traitement d’une maladie aussi complexe que le cancer passe obligatoirement par une meilleure compréhension des mécanismes qui en sont responsables.
Canoe
|
|
|
|
|
|
|
|
Une étude franco-américaine destinée à analyser le profil d'expression génique des personnes ayant la grippe vient de montrer que l'exposition au virus de la grippe est nécessaire mais non suffisante pour déclencher la maladie et que la réponse de l'hôte est un déterminant important de la progression de la maladie. Cette inégalité est trés probablement d'origine génétique et certains pateints développent des formes gravissimes sans que l'on sache pourquoi alors que d'autres ne présentent jamais de symptômes importants. Plus du tiers des cas de grippe saisonnière seraient même asymptomatiques.
Pour le démontrer, les chercheurs ont recruté 17 personnes non infectées et les ont contaminées par voie nasale avec la souche H3N2, fréquemment rencontrée lors des épidémies hivernales. Ils ont ensuite prélevé des échantillons sanguins à 16 reprises au cours des six jours qui ont suivi l'infection afin d'observer les niveaux d'expression des gènes au cours du temps dans les cellules circulant dans le sang (globules bancs, plaquettes, etc). L'équipe a développé pour cela un vaste programme mathématique et informatique qui a permis l'analyse de plus de 22.000 séquences de gènes.
Parmi les dix-sept participants, neuf sont tombés malades et les autres ont été infectés mais sans conséquence pour leur santé. Les auteurs ont constaté que le virus avait déclenché l'expression de 5000 gènes chez toutes ces personnes mais avec des différences significatives entre ces deux groupes. «Il existe un profil génétique corrélé à l'apparition des symptômes», résume Nicolas Dobigeon, Institut National Polytechnique de Toulouse et co-auteur de l'étude. En effet, certains gènes déclenchent les symptômes et d'autres les inhibent.
Les chercheurs ont ainsi pu dresser deux profils génétiques : l'un induit rapidement une réaction inflammatoire et déclenche les premiers symptômes environ 36 heures après l'infection alors que le second privilégie la production de protéines à fonction antioxydante qui protègent la cellule de l'infection et régulent la réponse immunitaire sans déclencher de symptôme.
L'origine de ces différents profils d'expression reste pour l'instant méconnue. Ils pourraient être liés à l'environnement ou tout simplement au patrimoine génétique de chacun. «Quoi qu'il en soit ce travail est fondamental. C'est le point de départ pour identifier des patients qui peuvent poser problème face au virus, selon Bruno Lina. Il est désormais envisageable d'obtenir des marqueurs biologiques grâce auxquels on pourra évaluer la sévérité potentielle de la maladie chez certaines personnes vulnérables. En outre, le fait de décrire les mécanismes innés de défense immunitaire ouvre la voie au développement de nouveaux médicaments.
Ces résultats établissent un schéma temporel des réponses de l'hôte et suggère l'utilisation de nouvelles cibles moléculaires à la fois pour mettre au point des outils fiables et rapides de détection de la grippe et pour développer de nouvelles stratégies thérapeutiques plus ciblées contre dans la grippe saisonnière et pandémique.
PLOs genetics
|
|
|
|
|
|
|
|
Une équipe autrichienne a réussi à observer le développement cérébral de fœtus dans l’utérus grâce à l’imagerie par résonance magnétique fonctionnelle.
Une équipe de chercheurs de la MedUni, à Vienne, a démontré pour la première fois que le développement du cerveau du fœtus peut être mesuré à l'aide de l’IRM fonctionnelle dans l'utérus. Cela signifie, selon la principale auteure de l’étude Veronika Schöpf, que des modifications pathologiques du développement cérébral seront détectables plus tôt qu'actuellement et pourront éventuellement être corrigées précocement.
Dans l'étude, 16 fœtus âgés de 20 et 36 semaines ont été examinés et les chercheurs ont pu observer le fonctionnement d’un réseau de neurones avant et après stimulation. L’examen est totalement sans douleur pour la mère et dure à peine plus longtemps que le temps d’une IRM traditionnelle, soit quelques minutes. « Nous avons été en mesure de démontrer, pour la première fois, que les réseaux de l'état de repos sont formés dans l'utérus et que ceux-ci peuvent être imagés et mesurés en utilisant l'imagerie fonctionnelle » souligne Veronika Schöpf.
Cette découverte signifie que, dans l'avenir, le développement de l'activité cérébrale chez le fœtus pourra être contrôlé au cours de la grossesse et certaines anomalies fonctionnelles pourront être détectées avant la naissance. Ce qui améliorera la prise en charge du bébé à la naissance.
Sciences et Avenir
|
|
|
|
|
|
|
|
Le milieu interstellaire contient de nombreuses molécules, en particulier organiques. Observées dans la phase gazeuse par la radioastronomie, ces molécules se condensent sous forme de glaces « sales » sur les grains de poussière dans les régions de formation d'étoiles. Ces nuages moléculaires denses évoluent en s'effondrant pour former étoiles, disques protoplanétaires, planètes et toutes sortes de débris comme les comètes et les astéroïdes. L'hypothèse selon laquelle ces débris, en tombant à la surface de la Terre, ont pu y amener eau et matière organique nécessaires à une activité de chimie prébiotique a été souvent discutée.
Les glaces interstellaires peuvent être reproduites en laboratoire. Leurs spectres infrarouges, indiquant leur composition et leur abondance, sont alors enregistrés et comparés avec succès aux observations astronomiques. La simulation en laboratoire peut également prendre en compte les processus d'irradiation, en particulier dans l'ultraviolet, qui mènent à une photochimie très riche et à la fabrication dans ces glaces de nombreux composés chimiques permettant plus tard la formation d'acides aminés, lors de la phase de réchauffement de ces glaces, menant à un résidu organique complexe.
A l'issue de ces simulations, des molécules bien précises comme l'urée et l'acide glycolique sont également formées, molécules déjà présentes dans les météorites. Or, en chimie organique, la condensation de l'urée et de l'acide glycolique permet d'obtenir une molécule spécifique, l'hydantoïne. Cette molécule a été détectée récemment dans les résidus organiques produits lors de ces simulations grâce à une collaboration étroite entre des chercheurs de l'Institut d'Astrophysique Spatiale à Orsay et du Centre de Biophysique Moléculaire (Orléans). L'importance de ce résultat tient dans le fait que l'hydantoïne est connue pour être un catalyseur de formation de chaînes peptidiques, ce que les chimistes appellent des oligopeptides, qui peuvent être considérées comme des proto-protéines.
Ainsi, dans les conditions anoxiques de l'atmosphère primitive de la Terre et en présence d'eau liquide, la libération d'hydantoïne, en complément de nombreuses autres molécules organiques, permettrait de faciliter grandement la fabrication de proto-protéines, une hypothèse suggérée de manière théorique dans les années 1990 par A. Commeyras à Montpellier. Ce résultat sur l'hydantoïne devrait permettre d'élaborer des scénarios expérimentaux visant à la production de ces oligopeptides par des processus physico-chimiques déterministes démarrant dans le milieu interstellaire et menant à l'apparition de proto-protéines dans les océans de la Terre primitive, une étape peut-être essentielle pour l'apparition de la vie.
CNRS
|
|
|
|
|
|
|
|
Les scientifiques de l'Université de Californie viennent d’identifier une mutation génétique responsable d’une forme de glioblastome, le type de tumeur maligne du cerveau le plus fréquent. Ces résultats rapportés dans l'édition en ligne du journal Cancer Research, suggèrent aussi que deux médicaments déjà utilisés pour traiter d'autres formes de cancer de manière efficace, le Cetuximab (Erbitux) et l'erlotinib (Tarceva), sont parvenus à prolonger la survie de souris modèles atteintes de cette forme de glioblastome. Un espoir pour les patients atteints de ce cancer.
Le glioblastome est une tumeur agressive et résistante aux thérapies actuelles, telles que la chirurgie, la radiothérapie et la chimiothérapie. Le taux de survie médiane pour les patients atteints, nouvellement diagnostiqué est juste de 14 mois. Des études antérieures ont identifié un facteur de croissance épidermique (EGFR) comme un gène fréquemment muté dans le glioblastome. L'équipe de recherche dirigée par des scientifiques du Dana-Farber Cancer Institute à Boston, ont analysé les données génomiques du glioblastome et ont réussi à caractériser une mutation par délétion dans un segment du gène EGFR. En reproduisant cette mutation sur la souris, les chercheurs constatent que la transformation cellulaire induite aboutit au gliblastome sur l’animal.
En testant 2 médicaments approuvés et qui ciblent EGFR, un anticorps monoclonal appelé cetuximab et l’erlotinib un inhibiteur sélectif de la tyrosine kinase du récepteur d’EGFR, les deux médicaments se révèlent efficaces pour supprimer l’action tumorale de EGFR. Le cétuximab, en particulier, aboutit à une survie prolongée des souris. Cetuximab, commercialisé sous le nom de l'Erbitux, est actuellement approuvé pour utilisation dans le traitement du cancer colorectal métastatique et du carcinome spinocellulaire de la tête et du cou. L'erlotinib, commercialisé sous le nom de Tarceva, est utilisé dans le traitement des cancers du poumon et du pancréas. Les chercheurs rappellent néanmoins que ces médicaments agissent en se liant à des sites sur la protéine EGFR et en inhibent l'activation, mais ils ne sont pas efficaces chez tous les patients atteints de cancer et peuvent être responsables de certains effets secondaires indésirables.
Santé log
|
|
|
|
|
|
|
|
Des scientifiques de Belgique, des Pays-Bas et des États-Unis ont identifié une protéine unique appelée CaM kinase importante dans la cascade biochimique responsable de la rupture cardiaque. Les résultats mettent en lumière le moyen d'éviter une rupture du myocarde lors d'une crise cardiaque en bloquant les processus biochimiques qui déclenchent l'émission de l'hormone aldostérone. L'étude, présentée dans la revue Nature Medicine, avait été partiellement financée dans le cadre du projet MEDIA («The metabolic road to diastolic heart failure»), soutenu à hauteur de près de 12 millions d'euros au titre du thème «Santé» du septième programme-cadre (7e PC).
Sous la direction de l'université de l'Iowa, aux États-Unis, les scientifiques proposent que l'inhibition de cette protéine puisse protéger un patient d'une rupture du myocarde, et par conséquent, augmenter ses chances de survie.
Lors d'une crise cardiaque, plusieurs substances chimiques sont générées, déclenchant des processus biologiques contribuant à la guérison et à la réparation. Le problème se pose lorsque ces substances sont trop nombreuses et provoquent plus de dégâts, entraînant une insuffisance cardiaque et la mort subite.
«Deux des médicaments efficaces contre l'insuffisance cardiaque sont les bêtabloquants qui bloquent l'action de l'adrénaline, et les médicaments bloquant le récepteur de l'angiotensine», explique le professeur Mark E. Anderson des départements de médecine interne et de physiologie moléculaire et de biophysique de l'université américaine, et auteur principal de l'étude. «Le reste des médicaments bloquent l'action de l'aldostérone.»
Les taux d'aldostérone augmentent après une crise cardiaque. Ces taux élevés de l'hormone sont associés à un risque accru de décéder dans les jours suivant la crise. Ces taux importants sont également associés à une oxydation considérable dans le myocarde. Le professeur Anderson et ses collègues ont découvert il y a trois ans que cette oxydation stimule la CaM kinase. Ils ont également découvert qu'elle servait d'essieu dans les voies des bêtabloquants et de l'angiotensine.
«Nous nous sommes demandés si l'aldostérone pouvait fonctionner par la CaM kinase, et si, le cas échéant, [si] certains avantages des bloqueurs d'aldostérone [pourraient] être attribués aux effets de la CaM kinase», explique le professeur Anderson.
Dans cette dernière étude, les chercheurs ont évalué la façon dont les taux élevés d'aldostérone influencent négativement le myocarde après une crise cardiaque et comment la CaM kinase y contribue. Leurs travaux montrent comment la CaM kinase stimule les cellules du myocarde pour générer une enzyme, MMP9, impliquée dans la rupture du muscle.
«Bien qu'il y ait plusieurs sources pour cette enzyme, notre étude montre que le myocarde la produit également et ce faisant, il se fait du mal à lui-même», explique le professeur Anderson. «Nous ignorons la raison de ce fait, mais l'inhibition de la CaM kinase pourrait éviter cela. Nous pensons que notre étude offre des preuves expérimentales sur le bien fondé de cette idée. Les résultats montrent que l'excitation de la CaM kinase serait une cible thérapeutique importante dans les maladies cardiaques, et que le développement d'inhibiteurs de la CaM kinase serait un objectif qui nous permettrait de passer du stade expérimental aux tests cliniques.»
Des experts de l'université de Louvain en Belgique et de la Maastricht University aux Pays-Bas ont également contribué à l'étude.
Cordis
|
|
|
|
|
|
|
|
Après des débuts encourageants il y a déjà 10 ans, la thérapie cellulaire cardiaque n’a pas tenu toutes ses promesses. Les études cliniques ont généralement concerné l’injection de cellules médullaires mononucléées autologues (par voie intra-coronaire, trans-endocardique ou épicardique) le plus souvent en post-infarctus. Globalement, les résultats ont été variables et dans les essais positifs, le gain en termes de fraction d’éjection ventriculaire gauche (FE) était modeste et parfois transitoire.
La thérapie cellulaire mise au point par une équipe américaine est bien différente. Roberto Bolli et coll. ont en effet choisi d’utiliser les cellules souches cardiaques (CSC) qui sont présentes dans le myocarde humain comme l’ont montré des travaux datant de 2007. Ces CSC expriment à leur surface un récepteur tyrosine kinase c-kit, se multiplient spontanément et sont pluripotentes puisqu’elles peuvent se différencier dans trois lignées principales : cellules endothéliales, musculaires lisses et myocytes.
Plusieurs études conduites chez l’animal ayant montré que la transplantation de telles CSC autologues améliorait significativement la fonction cardiaque, R Bolli et coll. ont pour la première fois franchi le pas et entrepris un essai pilote de phase 1 chez l’homme.
Vingt-trois patients ayant tous souffert d’un ou de plusieurs infarctus du myocarde (IDM) et dont la FE était inférieure à 40 % ont été inclus dans cet essai randomisé ouvert répondant au nom triomphal de SCIPIO (pour Stem Cell Infusion in Patients with Ischemic cardiOmyopathy). Tous devaient bénéficier d’un pontage aorto-coronarien (PAC). Chez les 16 sujets traités, environ 1 g de myocarde a été prélevé dans l’auricule droit lors de l’intervention, les CSC ont alors été isolées au laboratoire et mises en culture. En moyenne 4 mois après le pontage (ce délai permettant que la FE soit stabilisée) environ un million de CSC autologues purifiées ont été injectées dans les artères coronaires irriguant le ou les territoires infarcis. L’évolution de la FE (estimée par échographie bi et tri-dimentionnelle) de ces 16 patients a été comparée à celle des 7 témoins durant la même période (ces sujets avaient également bénéficié d’un PAC).
En termes de sécurité tout d’abord, aucun effet secondaire n’a été relevé après les injections qu’il s’agisse notamment de troubles du rythme, de prolifération tumorale, d’infections, de réactions allergiques ou de nécessité de revascularisation myocardique.
En termes d’efficacité, les résultats ont été très favorables avec passage de la FE de 30,3 % à 38,5 % au 4ème mois après l’injection (p=0,001) contre une absence de modification chez les témoins. De plus, cet effet favorable s’est accru avec le temps la FE augmentant de 12,3 % à un an dans le groupe traité (p=0,0007). Enfin chez les 7 patients chez qui des examens répétés en imagerie par résonance magnétique ont pu être pratiqués, le volume estimé de myocarde infarci a diminué de 24 % à 4 mois et de 30 % à un an.
Cette première utilisation en clinique humaine de cellules souches cardiaques autologues est donc très encourageante, les résultats obtenus étant sensiblement supérieurs à ce qui avait été observé avec des cellules mononuclées médullaires non spécifiques.
JIM
|
|
|
|
|
|
|
|
Des chercheurs du Centre de biologie synthétique et d'innovation de l'Imperial College de Londres sont parvenus à fabriquer des portes logiques, à la base des systèmes informatiques, à partir de bactéries. Ces travaux présentés dans la revue Nature Communications ouvrent la voie à la fabrication de nouveaux composants informatiques biologiques aux applications multiples.
Pour le professeur Richard Kitney, co-auteur de l'article : "Les portes logiques fabriquées à partir de transistors sont le fondement de l'industrie de l'information dans laquelle nous sommes. Sans ces composants nous ne pourrions pas traiter la masse d'information numérique que nous générons. Désormais nous avons démontré qu'il était possible de réaliser des portes logiques en modifiant l'ADN des bactéries. Nous espérons que ce travail mènera à une nouvelle génération de processeurs biologiques dont les applications pourront être aussi importantes que leurs équivalents électroniques".
Même si le chemin est encore long, l'équipe estime que ces portes logiques biologiques pourront un jour devenir la base de la bioinformatique. Parmi les futurs composants issus de ces recherches, on peut imaginer des capteurs se déplaçant dans les artères qui seraient capables de détecter et prévenir la formation de caillots de sang. Ou encore des capteurs capables de prévenir la formation de cellules cancéreuses ou bien d'identifier la présence de poison dans l'organisme.
Alors que la plupart des travaux précédents n'avait pas été au-delà de la théorie, l'équipe de l'Imperial College a réussi à créer des portes logiques qui se comportent exactement comme la version électronique. Ces nouvelles portes sont également modulaires, ce qui signifie qu'elles peuvent être assemblées entre elles pour former des composants plus complexes.
Concrètement, les chercheurs ont fabriqué des portes logiques "AND" et "NOT" à partir de bactéries Escherichia coli (E.Coli), que l'on trouve normalement dans la flore intestinale. L'équipe a modifié l'ADN de cette bactérie pour qu'elle se comporte comme un commutateur "on" et "off" en fonction d'une stimulation chimique. Les chercheurs ont également démontré qu'il est possible de fabriquer des portes logiques plus complexes du type "NAND", combinaison des portes "AND" et "NOT". La prochaine étape sera de réaliser des composants incluant plusieurs portes logiques pour pouvoir ainsi réaliser la totalité des opérations logiques nécessaires au traitement numérique de l'information.
Pour le professeur Martin Buck, co-auteur de l'étude, et chercheur au département de science du vivant à l'Imperial College London :"La prochaine étape des recherches pourrait mener vers un tout nouveau type de circuit pour traiter l'information. A l'avenir, nous pourrions voir des circuits biologiques complexes traiter des informations en utilisant des éléments chimiques, de la même manière que notre corps les utilise pour traiter et stocker de l'information".
Bulletins Electroniques
|
|
|
|
|
|
|
|
Comment les gens deviennent bons en science, en musique ou en sport ? Est-ce de l’inné ou de l’acquis ?
Ces questions ont soulevé pendant longtemps d’intenses débats en psychologie. Et contrairement à certains spécialistes qui insistent sur le rôle déterminant de la pratique et du travail, David Z. Hambrick et Elizabeth J. Meinz, deux professeurs de psychologie, soutiennent dans un article du New York Times que le talent et l’intelligence ont un impact bien plus marquant sur nos actions.
Les deux chercheurs rappellent qu’il y a moins de vingt ans, une étude pionnière dirigée par le psychologue K. Anders Ericsson de l’université de Floride a montré que bien jouer de la musique relevait surtout du nombre d’heures de pratique. Ainsi a-t-il remarqué avec ses collègues qu’à l’âge de 20 ans, les meilleurs étudiants du département de musique de l’université de Floride avaient accumulé pas moins de 10.000 heures de répétition, contre 8.000 pour les élèves jugés bons mais pas excellents et 5.000 heures pour les moins performants.
Comme le soulignent David Z. Hambrick et Elizabeth J. Meinz, ces résultats fondateurs ont été suivis par de nombreuses études «enthousiastes» allant dans le même sens : ce qui sépare les meilleurs des bons c’est l’acharnement au travail et la détermination.
Malcolm Gladwell en tire d’ailleurs la même conclusion quand il résume l’importance des recherches d’Ericsson dans son livre Outliers : «La pratique, ce n’est pas ce que vous faites une fois que vous êtes bon, mais ce que vous faites pour devenir bon.»
De la même manière, Geoff Colvin dans son livre Le talent est surévalué, distingue justement pour mesurer la pertinence du QI, la performance dans un cadre répété et habituel et la performance réalisée qu’une seule fois : «Le QI est un indicateur convenable de performance pour une tâche qui n’est pas familière, mais une fois qu’une personne fait le même travail depuis quelques années, le QI ne prédit pas grand-chose, ou même rien concernant la performance.»
Mais selon les deux auteurs de l’article du New York Times, ces affirmations ne correspondent pas exactement à «ce que dit la science». De plus récentes recherches montrent en effet que les capacités intellectuelles ont un rôle déterminant pour réussir dans de nombreux domaines.
David Lubinski et Camilla Benbow de l’université de Vanderbilt dans le Tennessee ont ainsi suivi les trajectoires scolaires de plus de 2.000 personnes qui ont obtenu les meilleurs scores au SAT à 13 ans (les 1 % les meilleurs). Et ils remarquent qu’en comparaison des 9 % les meilleurs, les premiers 1 % ont trois à cinq fois plus de chance d’avoir un doctorat, d’écrire un livre ou de publier ou un article dans une revue scientifique.
Les deux auteurs évoquent aussi leurs propres résultats qui reposent sur l’analyse de ce qu’ils appellent la capacité liée à la «mémoire de travail». Selon eux, cette qualité intellectuelle est innée. Or c’est elle qui fait la différence entre, par exemple, deux pianistes ayant la même expérience mais pas la même intelligence.
Cet article du New York Times a été vivement critiqué par Gizmodo, un site spécialisé dans l’actualité des innovations technologiques. Le site déplore en effet le fait que les deux psychologues cherchent à décourager tous ceux qui essayent d’entreprendre «en travaillant vraiment dur», et souligne que la notion de «talent» ne se limite pas à la génétique, et donc à l’inné.
Slate
|
|
|
|
|
|
|
|
Des chercheurs allemands de la Technical University of Darmstadt ont mis au point un dispositif nasal qui permettrait de détecter la présence d'une protéine associée à la maladie d'Alzheimer. Cette découverte fournit un espoir de dépistage plus précoce et donc d'un traitement possible dès les premiers stades de la maladie. Neurodégénérative et incurable, la maladie d'Alzheimer se manifeste entre autres par une accumulation dans le cerveau d'un dérivé d'une protéine appelée tau. Celui-ci s'agrège en amas et cause de graves perturbations cérébrales conduisant à la mort de neurones. Or, si les symptômes de la maladie telles que la confusion ou les problèmes de mémoire peuvent être difficiles à repérer, des chercheurs ont découvert que la protéine tau pouvait être détectée hors du cerveau, par exemple dans l'oeil. Néanmoins, ceci implique une procédure de diagnostic particulièrement délicate.
"Jusqu'ici, nous savions seulement que ces dépôts responsables de dommages n'étaient pas détectables que dans le cerveau mais aussi dans les cellules nerveuses des yeux. Le diagnostic via un scanner de la rétine était donc favorisé. Mais une teinte fluorescente était nécessaire pour que les dépôts dans les yeux soient visibles pour le médecin", explique le Professeur Boris Schmidt. C'est en travaillant sur le sujet que ce chercheur et son équipe ont découvert que la protéine tau n'était pas présente que dans l'oeil mais aussi sur les muqueuses nasales et ce, avant même toute forme de démence.
Les scientifiques allemands ont examiné les tissus de près de 100 personnes décédées et qui étaient atteintes de la maladie. Ils ont également effectué des tests sur des patients à l'université de Ludwig à Munich. "Plus on détectait de dépôts de tau dans le nez des patients et plus la structure cérébrale était atteinte", précise le professeur Schmidt. Cette découverte a donc conduit les scientifiques à considérer un dispositif fonctionnant par voie nasale. Selon eux, il pourrait s'agir d'une sorte de spray qui permettrait d'injecter dans le nez le réactif fluorescent. Il suffirait ensuite pour le médecin de glisser un endoscope pour détecter ou non la présence des fameux dépôts. Plus simple, ce protocole s'avèrerait donc moins pénible pour le patient et pourrait permettre un dépistage plus fréquent.
Technical University of Darmstadt
|
|
|
|
|
|
|
|
Novartis et ses partenaires de recherche ont découvert une nouvelle classe de molécules antipaludiques, les imidazolepipérazines (IZP). Cette découverte a été récemment publiée dans le journal "Science" en ligne. Ces molécules ont le potentiel de prévenir et de traiter la malaria, selon l'article.
Les résultats font état de molécules qui ciblent à la fois les infections hépatiques et sanguines, et s'attaquent au parasite Plasmodium aux deux stades de son cycle de reproduction, selon "Science". Ils décrivent comment les chercheurs ont développé un test qui permet de déterminer l'activité au stade hépatique de petites molécules candidates puis ont utilisé ce test et d'autres outils pour optimiser un échafaudage chimique actif sur les parasites au stades sanguin et hépatique dans les modèles murins de paludisme.
"Depuis plus d'une décennie, Novartis est en première ligne de la lutte contre le paludisme, faisant oeuvre de précurseur en fournissant à prix coûtant notre antipaludique Coartem au secteur public des pays d'endémie" a expliqué Joe Jimenez, CEO de Novartis, cité dans le communiqué. "Ces nouveaux résultats témoignent une fois de plus de notre engagement en faveur d'une recherche innovante et durable dans ce domaine important qui fait aujourd'hui partie intégrante de notre stratégie d'entreprise pour la responsabilité sociale".
Des chercheurs des Instituts de Novartis pour la recherche biomédicale (Novartis Institutes for BioMedical Research - NIBR), par l'intermédiaire de l'Institut de génomique de la Fondation Novartis pour la recherche (GNF) et de l'Institut Novartis pour les maladies tropicales (NITD), ont collaboré avec le Scripps Research Institute et l'Institut Tropical et de Santé Publique Suisse. Les recherches ont été soutenues par le Wellcome Trust, de l'Economic Development Board (EDB) de Singapour et de Medicines for Malaria Venture. Il s'agit de la deuxième nouvelle classe d'antipaludiques découverte par le même groupe au cours des deux dernières années, qui pourrait, sous réserve de confirmation, constituer un traitement de nouvelle génération du paludisme.
Romandie
|
|
|
|
|
|
|
|
Une série d'études montre comment les acides gras oméga-3 agissent en synergie avec les fibres pour réduire le risque de cancer du côlon. Présentées à la Conférence annuelle de l'American Institute for Cancer Research (AICR) sur l’alimentation, la nutrition, l’activité physique et le cancer des 3 et 4 novembre à Washington, ces conclusions confirment le bénéfice des deux nutriments en synergie pour réduire le risque de cancer.
Menées sur des tissus cellulaires et sur l’animal, ces recherches apportent désormais une certitude, les acides gras « sains » dans les poissons et des quantités élevées de fibres alimentaires sont aujourd’hui deux éléments d'une stratégie globale de prévention du cancer : «Lorsque nous combinons une grande quantité de fibres et d’acides gras oméga-3, nous constatons un effet synergique que nous ne constatons pas avec un seul de ces nutriments. Nous identifions en effet de nouveaux mécanismes impliqués dans la protection contre le cancer du côlon », explique Robert S. Chapkin, professeur à l’Université du Texas, auteur principal de l’étude.
- Un effet synergique : Les chercheurs avaient montré par de précédentes études animales que lorsque les oméga-3 sont combinés avec des fibres fermentescibles, comme les pectines par exemple, il y a réduction du nombre de tumeurs du côlon de manière bien plus importante qu’avec un seul des deux nutriments. Mais que chaque composant peut être aussi un facteur de réduction du risque par lui-même.
- Un impact moléculaire : L’équipe a entrepris une série d'études cellulaires et animales sur les oméga-3, les acides gras et le composé butyrate, un acide gras issu de la fermentation colique des fibres alimentaires non digestibles. Cette étude révèle que les graisses alimentaires et les fibres agissent ensemble pour induire un mécanisme moléculaire impliquant la mitochondrie qui pousse la cellule à mourir et augmente la mort cellulaire programmée (apoptose) des cellules pré-cancéreuses et cancéreuses du côlon.
- Un impact sur les ARN : Une seconde étude montre qu’une huile de poisson plus des fibres conduisent à des changements importants dans les ARN non codants (microARN), qui peuvent activer ou désactiver certains gènes impliqués dans la régulation des cellules souches intestinales. "Les cellules souches indifférenciées peuvent être endommagées et être alors plus sensibles au cancer», explique le Docteur Chapkin. "Nous avons constaté qu’un régime Oméga-3 plus fibres suppriment les gènes qui maintiennent les cellules dans un état indifférencié."
Maintenant que les études animales ont montré comment la combinaison de fibres alimentaires et d'huile de poisson intervient au niveau moléculaire, la prochaine étape sera de valider ses effets chez les humains.
Santé log
|
|
|
|
|
|
|
|
Des images moléculaires pour lutter contre le cancer ? C'est la thèse d'éminents chimistes et biologistes de l'université Lille I qui, avec le CHRU, le centre Oscar-Lambret et l'université de Lille II, étudient les tissus à l'échelle de la molécule. Avec un objectif : diagnostiquer et traiter le cancer « en temps réel ». ...
Plus de biopsie nécessaire. Mais un traitement direct sur le malade, au bloc opératoire, via une fibre laser intelligente qui, non seulement permettrait de rechercher les cellules cancéreuses mais aussi de les éradiquer. C'est peut-être l'avenir de la thérapie anticancer grâce aux recherches d'universitaires lillois. Isabelle Fournier et Michel Salzet, membres de l'Institut universitaire de France (2 % des universitaires français) ont déposé deux projets en ce sens en septembre.
But de leurs projets « spidermass » : bénéficier du plan investissement d'avenir, lancé par l'État. Un enjeu à 16 ME pour décrocher le label « infrastructure en biologie santé » qui ferait travailler ensemble des physiciens, des biologistes et des médecins dans onze laboratoires de toute la France, avec un centre nerveux dans la métropole.
L'initiative a été rendue possible par les travaux des Lillois, premiers Européens à exploiter, dès 2002, l'imagerie par spectrométrie de masse. Le principe : l'appareil, qui ressemble beaucoup à celui de la série TV Les Experts, permet d'obtenir des informations sur la nature et la structure des molécules dans les cellules. Et de réaliser des images de la répartition de ces composés dans les tissus et organes. La technologie mise au point dans le laboratoire du Professeur Salzet fait déjà le bonheur de l'industrie pharmaceutique. « Elle est développée par une start-up, Imabiotech, qui permet d'accélérer la mise sur le marché de médicaments. En fait, on peut voir à l'échelle de la cellule comment le médicament se comporte dans l'organisme », décrypte le Professeur Fournier.
La Voix du Nord
|
|
|
|
|
|
|
|
L’activité du Docteur Burkitt ne se limita pas, et de loin, à la description du lymphome qui porte son nom. Il s’intéressa aussi à la nutrition. Dans les années 70, il remarqua que les populations rurales africaines présentaient un faible taux de cancers colorectaux et il émit alors l’hypothèse que leur alimentation très riche en fibres les protégeait. Mais, alors que de très nombreuses études épidémiologiques ont été menées par la suite, les résultats étaient toujours peu significatifs et ne permettaient pas d’éliminer la possibilité d’un biais lié à la consommation de folates. L’hypothèse connut toutefois un regain d’intérêt lors de la publication en 2003 de l’étude EPIC (European Prospective Investigation into Cancer and Nutrition) qui incluait un grand nombre de patients et notait une baisse linéaire du risque de cancer colorectal avec l’augmentation de la consommation de fibres. Depuis, d’autres études de grande envergure ont été publiées et permettent la réalisation d’une méta-analyse ayant une puissance statistique suffisante pour conclure.
Au total, 25 études prospectives observationnelles ont été examinées. L’analyse démontre une association inverse entre la quantité de fibres alimentaires consommées et le risque de cancer colorectal, la réduction du risque atteignant 10 % pour une consommation quotidienne de 10 g de fibres, tous types de fibres confondus (Risque Relatif RR 0,90 ; intervalle de confiance à 95 % 0,86 à 0,94). La même association est retrouvée pour la consommation de fibres de céréales (0,90 ; 0,83 à 0,97). Avec les graines de céréales complètes, la réduction atteint presque 20 % pour une consommation de 90 g par jour (0,83 ; 0,78 à 0,89). En revanche, il n’est pas retrouvé de diminution significative du risque avec les fibres de fruits (0,93 ; 0,82 à 1,05), non plus que les fibres de légumes (0,98 ; 0,91 à 1,06) ou de légumineuses (0,62 ; 0,27 à 1,42).
Remarquons au passage que l’augmentation de la consommation de fibres alimentaires et de graines non raffinées n’est pas seulement conseillée pour la prévention du cancer colorectal. Selon d’autres travaux, elle serait associée aussi à une réduction du risque de pathologies cardiovasculaires, de diabète de type 2, de surpoids et d’obésité, et peut-être de la mortalité globale.
JIM
|
|
|
|
|
|
|
|
Une équipe de chercheurs anglais a réussi à à guérir un nourrisson d'une grave maladie du foie en lui injectant dans l'abdomen des cellules hépatiques. Cette méthode révolutionnaire n'avait encore jamais été utilisée. Pour guérir un bébé âgé de deux mois et souffrant d'une grave maladie qui avait attaqué son foie, des médecins du King's College Hospital dans le sud de Londres lui ont injecté des cellules hépatiques directement dans l'abdomen. Une alternative à la transplantation d'organe qui s'est révélée très efficace.
En effet, le petit Iyaad Syed dont le foie commençait à dysfonctionner avait besoin d'un nouvel organe. Mais au lieu de le placer sur la liste d'attente des receveurs, les scientifiques ont décidé de tenter un nouveau procédé destiné à accorder du temps supplémentaire pour que le foie se répare de lui-même. Après avoir traité des cellules hépatiques avec un procédé chimique afin de les empêcher d'être détruites par le système immunitaire, ils les ont injectées au nourrisson. Celles-ci ont alors joué le rôle de foie provisoire, en transformant les toxines et en produisant les protéines vitales normalement fabriquées par l'organe originel. "Soulagé" de ces tâches, le foie du bébé a recouvré ses fonctions deux semaines après l'injection.
"C'est la première fois que ce traitement est utilisé pour traiter un enfant atteint d'un dysfonctionnement aigu du foie. Cela ne fait que quelques mois que j'ai vu pour la première fois cet enfant qui était si malade qu'il avait besoin de dialyse et d'une machine pour respirer. Nous pensons que nous lui avons donné une nouvelle chance de vivre et le voir six mois après avec des fonctions hépatiques normales est remarquable", a confié le professeur Anil Dhawan, spécialiste des maladies du foie dans cet hôpital.
Désormais, la question est donc de savoir si la technique pourrait également être utilisée chez d'autres patients atteints de dysfonctionnement semblable. Outre les bons résultats, les chercheurs soulignent particulièrement l'un des avantages du procédé : le petit Iyaad n'a pas besoin de prendre d'immunosuppresseurs pour empêcher le rejet, comme c'est le cas pour des dons d'organe. "Le principe de cette nouvelle technique est vraiment révolutionnaire et nous attendons les résultats d'autres essais cliniques pour voir si cela pourrait devenir un traitement standard pour les adultes comme les enfants", a précisé Andrew Langford, directeur du British Liver Trust.
BBC
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|