|
|
|
|
|
NUMERO 637 |
|
|
|
|
|
|
|
Edition du 02 Février 2012
|
|
|
|
|
Edito
L’énergie nucléaire entre dans une ère nouvelle
Il y a quelques jours, la Cour des Comptes a publié un rapport très attendu, le premier du genre, sur les coûts réels de la production d'électricité nucléaire en France. Ce rapport passionnant nous apprend que le montant total des investissement réalisés en France depuis 1957 dans le domaine du nucléaire civil se monte à environ 121 milliards d'euros constants (valeur 2010). Au total, chaque MW nucléaire installé a donc coûté 2 millions d’euros en investissements.
Si l’on fait à présent le ratio production électronucléaire annuelle (410 milliards de kWh) sur investissements, on obtient un coût de production annuelle (hors maintenance) de 30 centimes par kWh nucléaire produit.
Ce rapport essaye également d'estimer le coût des charges à venir, ce qui constitue un exercice délicat, compte tenu des incertitudes économique, politiques et technologiques dans ce domaine.
Ce coût prévisionnel comporte trois composantes majeurs : d'abord le démantèlement des centrales qui arriveront en fin de vie dans les décennies à venir. Ce démantèlement représente un coût qui varie, selon les experts, de 18 à 30 milliards d'euros pour nos 58 réacteurs actuels. Vient ensuite la maintenance et la mise aux nouvelles normes de sûreté décidée à la suite de la catastrophe de Fukushima : 50 milliards d'euros à prévoir d'ici 2025. Enfin, la dernière composante concerne le retraitement et le stockage à long terme des déchets hautement radioactifs qui représentent un coût beaucoup plus difficile à cerner mais qui est estimé à une fourchette qui va de 28 à 35 milliards d'euros.
Parallèlement à ce rapport de la Cour des Comptes, le Commissariat à l'Energie Atomique a publié un rapport envisageant différents scénarios de sortie du nucléaire. Le CEA a comparé une hypothèse dans laquelle la production d'électricité nucléaire reste à son niveau actuel d'environ 75 % (le solde étant assuré à 11 % par l'hydraulique, 10 % par d'éolien, 2 % par le solaire et 2 % par le gaz) à une autre hypothèse envisageant une sortie complète du nucléaire d'ici 2025 avec le scénario énergétique suivant : 60 % d'éolien, 12 % de solaire, 16 % de gaz et 12 % d'hydraulique. Le premier scénario supposerait un investissement de 178 milliards à 212 milliards d'euros alors que le scénario de sortie du nucléaire entraînerait un investissement bien plus important, de l'ordre de 352 à 560 milliards d'euros.
Ces études confirment, comme nous l'avons déjà souligné dans cette Lettre, que, sauf à l'étaler sur une période très longue (au moins un demi-siècle), une sortie complète du nucléaire serait non seulement très coûteuse pour notre Pays mais entraînerait de surcroît une augmentation sensible de nos émissions de CO2 (moins de 6 tonnes par an et par habitant, contre 10 tonnes pour un allemand et 8 tonnes pour un européen) incompatible avec nos engagements en matière de lutte contre le réchauffement climatique. On peut bien sûr nier cette réalité pour des raisons idéologiques mais elle n'en demeure pas moins vraie !
Reste que l'utilisation massive et durable de l'énergie nucléaire en France pose un vrai problème d'acceptabilité sociale qui nécessite une transparence totale et une information beaucoup plus complète de nos concitoyens des spécificités de cette énergie.
A cet égard, il faut souligner que la question redoutable et sensible de la gestion des déchets hautement radioactifs est en train d'être bouleversée par deux ruptures technologiques majeures.
La première concerne la transmutation qui vise à transformer les déchets très radioactifs en éléments beaucoup moins radioactifs et à durée de vie courte en les bombardant par des neutrons produits par un réacteur spécialement conçu à cet effet. L'Europe a en effet lancé le projet très prometteur du réacteur de recherche Myrrha (Multi-purpose hybrid research reactor for high-tech applications), conçu par le Centre d’étude de l’énergie nucléaire (SCK-CEN). Ce projet vient de démontrer, il y a quelques semaines, la faisabilité technique, via la fission nucléaire, de la transmutation des déchets radioactifs à longue durée de vie en déchets à courte durée de vie.
Grâce à ce réacteur Myrrha, il est désormais envisageable de traiter une importante catégorie de déchets nucléaires, les actinides ainsi que le plutonium, le neptunium, l'américium et le curium. Après une irradiation appropriée par une réaction de fission, ces éléments très radioactifs à longue durée de vie se transforment en éléments à durée de vie beaucoup plus courte (3 à 7 ans). Cette transformation va bouleverser complètement la donne en matière de stockage et de retraitement des déchets nucléaires car, non seulement elle permet de réduire considérablement la toxicité et la durée de vie des déchets hautement radioactifs, mais elle peut également être utilisée pour produire, à partir des déchets initialement dangereux, des substances très utiles, comme le Xénon, un gaz rare, du silicium dopé, indispensable à l'industrie électronique ou encore des radio-isotopes thérapeutiques pour traiter le cancer qui sont actuellement très difficiles à obtenir en quantité suffisante.
Parallèlement à ces progrès considérables dans la transmutation des déchets radioactifs, la communauté scientifique poursuit activement ses efforts pour parvenir à réaliser la séparation complète des actinides mineurs, composants majeurs des déchets radioactifs issus des centrales nucléaires. Un prototype de réacteur nucléaire à neutrons rapides au sodium, nommé « Astrid », devrait être opérationnel en 2020.
Ce réacteur de 4ème génération, à neutrons rapides au sodium, présente un véritable saut technologique, pourquoi ? Parce que cette nouvelle génération de réacteur sera capable de transformer la totalité de l’uranium 238 en plutonium 239, ce qui multipliera par 100 les ressources fissiles primaires mondiales.
Autre avantage, ces réacteurs pourront brûler les actinides mineurs qui constituent la majeure partie des éléments radioactifs à vie longue. A l'issue de ce retraitement, il ne restera donc que des produits de fission faiblement radioactifs pendant 300 ans et facilement stockables.
Enfin, une autre voie, encore plus radicale, est en cours d'expérimentation : la réinjection géothermique. Des chercheurs russes basés au Kamtchatka (Extrême-Orient russe) sont en effet parvenus à enfouir des déchets nucléaires à une température élevée (350°) dans des systèmes hydrothermaux. Ces expérimentations ont montré que l'enfouissement des déchets nucléaires, dans ces conditions particulières de pression, de température et de configuration géologiques, débouche sur la formation de combinaisons chimiques et géologiques stables et inoffensives.
La neutralisation des déchets par la voie géothermique pourrait donc offrir à terme une solution simple, peu coûteuse et parfaitement sûre à la question du retraitement et de la gestion des déchets nucléaires ultimes. Une telle injection de déchets nucléaires par voie géothermique n'aurait aucune conséquence pour l'environnement car la quantité de déchets injectés serait insignifiante par rapport aux volumes de ces flux. Cette voie technologique a d'ailleurs été validée par l'AIEA.
Ces progrès majeurs en cours dans le domaine de la séparation des actinides et de la transmutation ne pourront certes se substituer au stockage souterrain mais il vont permettre, d'une part, de réduire considérablement la quantité et la toxicité des déchets à entreposer et d'autre part, de produire à un niveau industriel de multiples matériaux et substances utiles à notre développement économique. Transformée par ces ruptures technologiques, l'énergie nucléaire va donc entrer dans une nouvelle ère et pourra, il faut l'espérer, être utilisée à une large échelle pour répondre à la soif d'énergie de la planète, sans contribuer à l'aggravation du réchauffement climatique et dans le cadre d'une utilisation durable et d'un niveau de risques acceptable par nos sociétés.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Pour la première fois en France, chaque citoyen majeur peut désormais être acteur de la recherche sur la grippe par l’intermédiaire du site www.grippenet.fr. Lancé à l’initiative de l’Inserm, l’université Pierre et Marie Curie et l’Institut de Veille Sanitaire (INVS), GrippeNet.fr s’inscrit dans le cadre d’un projet de surveillance et de modélisation des épidémies en Europe.
A ce jour, la surveillance de la grippe en France est réalisée à l’aide d’informations collectées par des médecins libéraux volontaires, faisant notamment partie du réseau Sentinelles de l’Inserm, et par un réseau de laboratoires et hôpitaux. Toute une partie de la population, qui présente un syndrome grippal mais qui ne consulte pas de médecin, échappe de fait à cette surveillance. Grâce au site www.grippenet.fr les chercheurs s’attendent donc à obtenir des informations complémentaires à celles obtenues par les systèmes de surveillance traditionnels.
Le site www.grippenet.fr est ouvert à toute personne majeure, malade ou non malade, et résidant en France métropolitaine. Après avoir rempli un questionnaire précisant son profil, le participant est invité chaque semaine à remplir un bref questionnaire récapitulant les symptômes qu’il a eus ou non depuis sa dernière connexion (fièvre, toux…). Ces données anonymes sont immédiatement analysées et contribuent en temps réel à la surveillance de la grippe en France. Les éléments recueillis sont également utilisés à des fins de recherche pour mieux comprendre la diffusion des épidémies de grippe, étudier les facteurs de risque ou encore connaître le comportement de la population vis-à-vis de la maladie.
- Etre acteur de la recherche et mieux informé sur la grippe
Pour les volontaires, la participation à ce programme ne se substitue évidemment pas à une visite chez son médecin généraliste ; toutefois les données recueillies via GrippeNet.fr leur permettront d’en apprendre davantage sur la grippe, tout au long de l’année, et d’être les premiers informés des résultats de l’étude. Ce système de surveillance de la grippe via Internet est cette année dans une phase de test. La participation du public sera déterminante : plus le nombre de participants sera élevé, plus les résultats de l’étude seront scientifiquement pertinents.
GrippeNet.fr s’inscrit dans le cadre du projet Epiwork financé par la Commission européenne, ayant pour objectif la mise en place d’infrastructures de surveillance et de modélisation des épidémies en Europe.
Inserm
|
|
|
|
|
|
|
|
Que diriez-vous d'être prévenu sur votre smartphone en cas de fuite d'eau à votre domicile et de pouvoir immédiatement couper l'alimentation générale ? Ou encore de savoir exactement quelles denrées manquent dans votre réfrigérateur ? Si de tels scenarii sont déjà devenus réalité avec certains acteurs de la domotique, ils risquent fort de se généraliser dans les prochaines années. En effet, Texas Instruments vient de lever le voile sur sa dernière puce Wi-Fi CC3000, censée — sur le papier tout du moins — révolutionner le secteur.
Ce module Wi-Fi à basse consommation et à faible coût peut en effet être intégré de manière très simple par les fabricants d'électroménager, les concepteurs d'appareils de domotique ou de sécurisation de domicile. Il ne mesure que 21 x 14 x 2,8 mm, peut fonctionner à des températures allant de –40°C à 85°C et ne nécessite que 6 Ko de mémoire flash et 3 Ko de mémoire vive !
Le tour de force de Texas Instruments est d'avoir intégré dans cette puce la couche TCP/IP, le logiciel de sécurité et son pilote Wi-Fi. Elle s'attribue donc elle-même sa propre adresse IP et ne nécessite pas d'interface utilisateur. Le pilotage de domicile du bout des doigts en passant par l'interface tactile de son smartphone va-t-il se démocratiser ? Réponse d'ici à quelques années.
01Net
|
|
|
|
|
|
|
|
On connaît le m-commerce, la m-banque, le m-marketing. Mais on ne pense peut-être pas souvent au m-learning. Apparemment, les universités et les écoles de commerce non plus. Selon un récent rapport de l'International University Consortium for Executive Education (Unicon), ces établissements devraient mieux exploiter les possibilités du "mobile learning" et prendre plus d'initiatives pour proposer aux étudiants des méthodes d'apprentissage plus individualisées, en se servant des différents terminaux mobiles qu'ils possèdent.
"Ces jeunes utilisateurs sont extrêmement connectés", explique Sébastien Brunet, responsable du Living Lab au Cned. "Pour continuer à les toucher, il faut réussir à faire le lien entre apprentissage formel au sein de la classe et informel (espace personnel, bibliothèque…) grâce aux smartphones ou aux tablettes."
Comment ? En envoyant par exemple résumés et comptes rendus au format textuel, sonore ou vidéo, que ce soit avant ou après les cours effectifs. Ou, dans une démarche plus structurée, en mettant en place des plates-formes collaboratives autour de forums et de groupes d'e-mailing, où étudiants et professeurs échangeraient des informations.
Ces méthodes ont également l'intérêt de faire profiter les étudiants de leurs différents temps morts dans la journée (comme les trajets dans les transports en commun) pour continuer à engranger du savoir. Mais utiliser de tels supports n'est pas sans contrainte. "Nous devons faire face à de vrais problèmes de standardisation technique, il est difficile de proposer des applications complexes, interactives et pertinentes quand les systèmes d’exploitation sont si variés."
Les structures éducatives se trouvent aussi confrontées à des problèmes récurrents de couverture réseau dans certaines zones du globe et au coût élevé des applications de qualité. Surtout, les réflexions autour du m-learning se focalisent trop souvent sur le support, pas assez sur les usages.
L'Atelier
|
|
|
|
|
|
|
|
Les bons vieux livres d'école finiront-ils sur l'iPad ? C'est le pari que fait Apple. Le groupe informatique a dévoilé récemment une nouvelle version de son service iBook, qui permet d'accéder à des manuels scolaires. Mais cette fois-ci, la marque à la pomme a signé des accords avec les grands noms de l'édition scolaire outre-Atlantique, Pearson, McGraw-Hill et Houghton Muffin Harcourt, qui revendiquent à eux trois 90 % du marché américain.
L'idée des dirigeants d'Apple est de développer l'offre numérique de manuels scolaires sur la tablette iPad. Selon Phil Schiller, vice-président d'Apple en charge du marketing au niveau mondial, 1,5 million d'iPad sont utilisés aujourd'hui dans l'éducation dans le monde. Les livres devraient être vendus en dessous de 14,99 dollars et seront disponibles sur iBook 2, une application gratuite que l'on pourra télécharger sur la tablette. Il sera possible d'annoter le livre sur iPad, de rechercher des mots dans le manuel ou encore de répondre aux questions et aux exercices. Il s'agit d'une idée qui tenait cher au coeur de Steve Jobs. Le fondateur d'Apple, décédé à l'automne dernier, estimait le marché de l'édition scolaire numérique à 8 milliards de dollars par an.
En attendant que ce marché décolle réellement, l'action Apple était au plus haut : la capitalisation boursière du groupe californien a même dépassé 400 milliards de dollars en cours de séance. En revanche, le titre Pearson a, lui, perdu 4 % à Londres, les investisseurs craignant que le rouleau compresseur Apple s'accapare ce nouveau marché au détriment des éditeurs.
Les Echos
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
La technologie, brevetée par le groupe Sogetrel et Suez- Lyonnaise des eaux, permet un travail plus rapide et surtout évite de creuser des tranchées dans les chaussées de la commune.
La Ville de Morcenx, qui a décidé il y a déjà 10 ans de se doter d'un réseau fibre optique, poursuit ses chantiers. Tout récemment, le groupe Sogetrel était à pied d'oeuvre, rue de la Brune, pour équiper 400 mètres de réseau, à l'aide d'une technologie innovante et unique en France, appelée " Easy Fiber", brevetée par le groupe Sogetrel et Suez-Lyonnaise des eaux. Elle permet d'utiliser les réseaux déjà existants, comme les égoûts non visitables à Morcenx, pour effectuer le raccordement.
Concrètement, un robot équipé d'une caméra plonge dans les égouts. Il est suivi et télécommandé depuis un camion atelier aménagé d'équipements spécifiques. Le robot inspecte dans un premier temps les canalisations, puis oeuvre à la mise en place d'un fourreau à l'intérieur duquel sera installée la fibre optique. Selon le directeur régional adjoint du groupe Sogitrel, Lionel Carrère, le procédé a l'avantage de préserver la chaussée, de limiter les nuisances pour les riverains, de permettre une installation du réseau plus rapide, avec un coût de déploiement réduit de 30 %.
Sud-Ouest
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L'effervescence autour de l'énergie éolienne donne des ailes au lidar. Cette technologie qui utilise le même principe que le radar, mais à partir d'un rayon lumineux, permet en effet la mesure très précise de la vitesse du vent. Une donnée précieuse qui sert déjà à évaluer la ressource d'un futur site éolien. « C'est fondamental, puisqu'un projet éolien est un projet financier. La précision de la mesure du vent conditionne la rentabilité et le montant de l'argent que l'on pourra emprunter », explique Alexandre Sauvage, fondateur de Leosphere, une jeune entreprise française spécialiste du secteur, dont la filiale Avent Lidar Technology est en concurrence avec d'autres spécialistes comme le britannique Natural Power ou le canadien Catch the Wind.
Traditionnellement, ces mesures sont effectuées grâce à un mât d'une centaine de mètres au grand maximum en haut duquel est perché un anémomètre. Le lidar est lui placé au sol. Le rayon orienté à la verticale permet de mesurer la vitesse du vent de façon continue et jusqu'à environ 200 mètres. De la taille d'un petit réfrigérateur, il est en outre déplaçable. « Une innovation de rupture qui permet une évaluation plus souple et plus complète », résume Werner Coppye, directeur technique de la société d'analyse 3E.
Pour l'éolien offshore, les lidars seront probablement encore plus utiles car les projets se chiffrent en milliards d'euros, avec des éoliennes de plus en plus grandes. La société bretonne Nass & Wind, qui vient de répondre à l'appel d'offres gouvernemental sur l'éolien marin, a ainsi utilisé deux lidars afin d'étudier les gisements de vent à proximité du banc de Guérande et au large de Saint-Brieuc grâce à la présence d'un îlet et d'un phare.
Pour pallier l'absence de point fixe, l'exploitant La Compagnie du Vent pilote un projet de recherche visant à développer un système de lidar installé sur une bouée. Labellisé par le Pôle Mer Bretagne, le projet Blidar pose deux défis, explique Philippe Alexandre, directeur technique de La Compagnie du Vent : « D'abord, celui de la stabilité qui va varier selon l'état de la mer et du type de bouée, ensuite celui du filtrage des données brutes qu'il faudra savoir traiter et corriger. »
Le lidar a d'autres promesses. Ainsi un seul appareil plus puissant, balayant l'espace à la fois horizontalement puis verticalement, pourrait donner une image globale et en 3D des flux de vents disponibles. « Cela ne donnerait toutefois que des données moyennes. Afin de mesurer instantanément le vent en 3 dimensions, il faudrait parvenir à combiner l'action de trois lidars. C'est ce sur quoi nous travaillons dans mon laboratoire », explique Rozenn Wagner, chercheur au DTU Wind Energy (ex-Riso) au Danemark.
Enfin, les lidars vont aussi monter à bord des éoliennes. D'abord pour évaluer leur performance réelle et vérifier que l'électricité produite correspond bien à ce qu'a promis le fabricant. A plus long terme pour aider à piloter les éoliennes et améliorer leur productivité. Placé au niveau de la nacelle et dirigeant son faisceau dans la direction du vent, le lidar offrirait ainsi à l'éolienne quelques secondes pour anticiper la puissance du vent et orienter ses pales de façon optimale. Voire les stopper complètement en cas de rafale.
Les Echos
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
La NASA a annoncé que le télescope spatial américain Kepler venait de découvrir 11 nouveaux systèmes planétaires regroupant 26 planètes au total. Ces découvertes portent à 60 le nombre d'exoplanètes rencontrées et confirmées à ce jour par Kepler, et à plus de 2.300 le total de ces planètes "potentielles" se trouvant hors de notre système solaire, précise l'agence spatiale américaine dans un communiqué. Kepler a également triplé le nombre de systèmes planétaires connus comptant plus d'une exoplanète. Aucun de ces onze systèmes planétaires ne ressemble à notre système solaire, à l'exception d'un, baptisé Kepler-33, qui reste toutefois plus ancien et plus grand et compte cinq planètes contre huit pour le système solaire.
Ces 26 nouvelles exoplanètes varient en taille, allant de 1,5 fois le rayon de la Terre à une dimension surpassant Jupiter, la plus grosse planète de notre système solaire, formée de gaz. Quinze de ces exoplanètes se situent, en terme de taille, entre la Terre et Neptune. Davantage d'analyses et observations sont nécessaires pour déterminer celles qui sont rocheuses comme la Terre et celles qui ont une atmosphère gazeuse épaisse comme Neptune.
Ces exoplanètes orbitent autour de leur étoile dans des périodes allant d'une fois tous les six jours à une fois tous les 143 jours. "Avant le déploiement de Kepler --lancé en mars 2009-- nous connaissions l'existence de peut-être 500 exoplanètes dans l'ensemble de la Voûte étoilée", relève Dough Hudgins, le responsable scientifique de Kepler à la Nasa. Désormais, on en compte 729 au total, confirmées à ce jour, dont 60 ont été débusquées par Kepler, ajoute-t-il.
La Nasa estime qu'il s'agit d'une exoplanète lorsque les astronomes de l'agence la voient passer à trois reprises au moins devant son étoile, entraînant une baisse de luminosité à l'endroit où transite la planète. Ces nombres "nous indiquent que notre galaxie (la Voie lactée) est remplie de planètes de toute taille et (de tout type) d'orbites", souligne Dough Hudgins. Kepler identifie les exoplanètes potentielles en observant en permanence les changements de luminosité de plus de 150.000 étoiles situées dans les constellations du Cygne et de la Lyre. Sa mission est de rechercher des planètes soeurs de la Terre, susceptibles d'abriter la vie. Début décembre 2011, Kepler avait confirmé l'existence d'une exoplanète ressemblant à la Terre, portant à trois le nombre de ces planètes pouvant potentiellement permettre l'existence de la vie. Les découvertes annoncées par la Nasa sont publiées dans quatre revues scientifiques dont l'Astrophysical Journal et les Cahiers mensuels de la Royal Astronomical Society.
RTL
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Une équipe de chercheurs britannique et français financée par l'UE a identifié le «gène nourrisseur» responsable du transfert des nutriments provenant des plantes aux semences. Cette nouvelle découverte, présentée dans la revue Current Biology, pourrait aider à augmenter la production alimentaire mondiale mais a également des conséquences pour la sécurité alimentaire.
Pour la première fois, les chercheurs ont pu identifier le gène Meg1, qui régule la quantité optimale de nutriments s'écoulant des plantes de maïs mères aux plantes-filles.
L'étude a été partiellement financée par la Commission européenne dans le cadre de l'action «Harnessing plant reproduction for crop improvement» du domaine Alimentation et agriculture du cadre COST (Coopération européenne dans le domaine de la recherche scientifique et technique). COST coordonne différents programmes nationaux de recherche au niveau européen ; il est soutenu par la Direction générale de la recherche et de l'innovation. L'objectif principal est de réduire la fragmentation dans les investissements de recherche européenne et d'ouvrir l'Espace européen de la recherche (EER) à la coopération mondiale.
Meg1, contrairement à la majorité des gènes exprimés à partir des chromosomes maternels et paternels, est exprimé uniquement à partir des chromosomes maternels. Cette forme inhabituelle d'expression génétique uniparentale, appelée empreinte parentale, n'est pas limitée aux plantes ; elle se déclare également chez les gènes humains qui régularisent le développement du placenta pour contrôler l'approvisionnement en nutriments maternels au cours de la croissance foetale.
Les scientifiques connaissent depuis longtemps l'existence de gènes empreints chez l'homme et autres mammifères, mais il s'agit là du premier gène parallèle à régulariser l'approvisionnement en nutriments au cours du développement des semences à être identifié dans le monde végétal.
Les résultats de cette nouvelle étude impliquent que les scientifiques peuvent se concentrer sur l'utilisation de ce gène et comprendre le mécanisme dans lequel il s'exprime pour augmenter la taille des graines et la productivité dans la majorité des plantes à culture.
L'un des auteurs de l'étude, le Docteur Jose Gutierrez-Marcos de l'université de Warwick, commente : «Ces résultats ont d'importantes implications sur l'agriculture et la sécurité alimentaire, étant donné que les scientifiques possèdent désormais le savoir-faire moléculaire pour manipuler ce gène par la sélection végétale traditionnelle ou par d'autres méthodes pour améliorer les caractéristiques des graines telles que le rendement de biomasse par graine. Cette compréhension du développement des graines de maïs et d'autres céréales, par exemple le riz et le blé, est essentielle à mesure que la population mondiale s'appuie sur des produits phares d'alimentation. Pour répondre aux demandes de la population mondiale en pleine croissance dans les années à venir, les scientifiques et reproducteurs doivent collaborer pour préserver et augmenter la production agricole».
Un autre auteur de l'étude, le professeur Hugh Dickinson, de l'université d'Oxford, explique : «L'identification de MEG1 est une découverte importante, et elle représente une véritable percée dans la compréhension de voies génétiques complexes qui régulent l'apport et le contenu nutritionnel des graines.»
Bien que la majorité des caractéristiques prisées soient polygéniques, il n'existe aucun outil de sélection génétique permettant la fixation efficace de caractéristiques multi-génétiques sur des générations successives. Parmi plusieurs stratégies reproductives pour la fixation de caractéristiques agronomiques désirées, l'un des meilleurs choix est la production de graines clonées. Cette technique permet la fixation instantanée du génome complet des meilleures plantes.
L'objectif général de COST est de permettre la synergie de l'expertise européenne et internationale pour mieux comprendre les mécanismes de reproduction végétale sexuelle/apomictique et de faciliter l'application de ses connaissances dans le développement de nouvelles approches pour l'agriculture et l'industrie alimentaire, afin de renforcer la productivité des récoltes.
Cordis
|
|
|
|
|
|
|
|
Après deux années de travaux en commun, l'entreprise RWE (l'un des quatre grands énergéticiens allemands) et l'entreprise de biotechnologies Brain AG viennent de franchir une nouvelle étape dans leur projet de recherche sur les microorganismes mangeurs de CO2 à Niederaussem (Rhénanie du Nord-Westphalie).
Parmi les quelque 3.000 microorganismes testés, 29 viennent d'être sélectionnés pour leurs caractéristiques génétiques leur permettant de croître avec du CO2 et de valoriser ce dernier. Ces microorganismes se nourrissent de CO2, issu notamment des fumées des centrales à charbon de RWE à Niederaussem, à une température de 60°C, facilement obtenue à proximité de ces centrales thermiques. Ces microorganismes sont ensuite capables de transformer le CO2 en biomasse. Une fois sèche, celle-ci peut servir comme matériau isolant dans le secteur du bâtiment. Une autre possibilité vise à transformer cette biomasse en biomatériaux, en produits chimiques intermédiaires ou raffinés ou encore en bioplastiques.
Le projet de recherche porte sur la culture de microorganismes, les procédés et moyens de synthèse de transformation du CO2. Deux millions d'euros ont déjà été investis dans ces projets et les résultats satisfaisants ont incité RWE et Brain à continuer les recherches. RWE souhaite également développer une "alliance pour l'innovation" avec 21 partenaires issus de petites et moyennes entreprises ainsi que des centres de recherches et des universités, afin d'élargir le projet à d'autres sources de CO2, comme les déchets, les eaux usées ou encore les raffineries.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Boris Johnson, le maire de Londres, s'est lancé dans une série d'expérimentations pour le moins controversées afin de réduire la pollution dans les rues de sa ville.
Depuis quelques mois, des camions parcourent les zones les plus polluées en dispersant une solution adhésive à base de calcium afin de clouer au sol les fines particules émises par les voitures. Cette flotte de trois camions se déploie entre minuit et six heures du matin sur environ 30 km de rues, près de Victoria, Earls' Court ou encore Marylebone, et commence par nettoyer au jet d'eau la chaussée. Ensuite, des véhicules spécialement modifiés dispersent cette solution collante sous la forme d'un fin nuage de gouttelettes, un peu comme le font les dégivreurs dans les aéroports. Une fois lancé, ce nuage est à peine visible et les fines gouttes vont piéger les particules dites PM10 avant de les entraîner par gravité vers le sol. C'est une méthode très similaire à celle utilisée en cas d'accident nucléaire pour limiter la dispersion des poussières radioactives.
Ces fines particules, PM10, sont émises par les pots d'échappement, mais aussi par les pneus et par les disques de frein. Elles sont à l'origine de nombreux problèmes de santé comme l'asthme, les maladies cardio-vasculaires, des cancers des poumons, ainsi que de nombreux décès prématurés chez les personnes les plus fragiles.
C'est face à ce problème de santé public et à un record de pollution depuis 2003 atteint un peu plus tôt dans l'année, que Boris Johnson a décidé de passer aux grands moyens. En effet, la ville de Londres est en infraction avec les réglementations européennes et risque des amendes de 300 M euros. Ce qui pourrait arriver si le nombre de jours où la qualité de l'air, qualifiée de "mauvaise", dépasse 35 en 2012. Et puis, il s'agit aussi de ne pas ternir l'image des jeux olympiques qui sont annoncés comme les plus "verts" et "durables". Le maire de Londres et Transport for London (TfL, l'opérateur public en charge des transports dans la capitale : métro, bus, vélos, etc.) applaudissent les résultats déjà obtenus, avec une réduction observée du taux de particules de 14 % dans les rues traitées.
Pour le directeur des opérations de TfL, Garrett Emmerson, ce schéma s'inscrit dans toute une série de mesures de long terme, destinées à combattre ce problème de pollution : introduire de nouveaux véhicules à basse émission de particules, déployer des bus plus propres, retirer les taxis les plus sales de la circulation, ou encore durcir les standards de pollution en accord avec le ministère des transports. Londres investit également dans des infrastructures passives comme des murs le long des voies rapides qui fixent les polluants, ainsi qu'en plantant des arbres.
Bulletins Electroniques
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le caractère d'un individu transparaît dans son activité cérébrale.
Un jour, il sera peut-être possible de connaître la personnalité d'un individu en regardant un cliché de son cerveau en activité. Alors, les recruteurs pourront décider si un CV, accompagné d'une photo du cerveau du candidat, convient pour le poste. Des internautes surfant sur des sites de rencontres pourront trouver l'âme sœur en évaluant la compatibilité de leurs caractères, d'après des clichés d'imagerie cérébrale.
À vrai dire, ce jour ne semble pas si éloigné. Du moins au Laboratoire de psychologie de l'Université de New York, où des volontaires ont accepté de remplir des questionnaires de personnalité avant de subir une IRM qui mesurait l'activité de repos de leur cerveau. Les neuroscientifiques ont vu apparaître différents types d'activité cérébrale spontanée chez ces personnes, une empreinte cérébrale du tempérament, ou neurotempérament.
Quel est donc ce code cérébral de la personnalité ? Il met en relation de grands profils d'activation du cerveau, et chacune des cinq grandes dimensions de la personnalité répertoriées : l'extraversion, le névrosisme ou instabilité émotionnelle, l'ouverture, l'agréabilité et le caractère consciencieux.
Les images cérébrales montrent que les extravertis ont une activité de repos naturellement élevée dans les aires dites paralimbiques et le gyrus fusiforme, des structures cérébrales impliquées dans la reconnaissance des visages et les différentes formes de plaisir. Cela explique pourquoi l'extraverti se met en avant en société, car il retrouve du plaisir à établir de nombreux contacts et se lasse facilement en l'absence de stimulations sociales.
Les névrotiques, ou instables émotionnels, ont une activité de repos élevée dans les zones préfrontales dorsomédianes, impliquées dans l'anxiété, l'auto-évaluation et la peur.
Les personnes ouvertes (à la nouveauté, au changement, aux idées différentes) se reconnaissent à l'activité de leur cortex préfrontal dorsolatéral, associé à la flexibilité mentale, à l'imagination, la curiosité intellectuelle.
Les personnes agréables se signalent par un cerveau très actif dans les aires dites extrastriées (voisines du cortex visuel) postéromédianes et sensorimotrices, dont l'action conjointe favorise les mécanismes d'empathie et d'attention sociale.
Quant aux individus consciencieux, ils présentent une activité supérieure dans une partie du lobe temporal médian classiquement dévolue à la planification, l'organisation et la discipline.
Finalement, à chacun son cerveau : selon son type de personnalité, on utiliserait préférentiellement certains modules cérébraux orientant le comportement et la pensée. Mais n'oublions pas qu'un tempérament est un mélange de ces cinq dimensions, dans des proportions variables d'un individu à l'autre. C'est justement le dosage de ces proportions qui fait l'unicité du caractère, le neurotempérament de chacun.
Pour La Science
|
|
|
|
|
|
|
|
Les principaux nano-vecteurs de médicaments étudiés à ce jour sont des vésicules lipidiques ou « liposomes ». Leurs analogues à base de polymères ou « polymersomes » ont été découverts il y a une dizaine d'années. Ils présentent plusieurs avantages : plus stables et plus imperméables que les liposomes, ils s'avèrent plus facilement « fonctionnalisables et modulables » (il est possible par exemple de synthétiser un polymère thermosensible ou bien capable de reconnaître certaines cellules, notamment tumorales). L'équipe coordonnée par Sébastien Lecommandoux conçoit depuis 10 ans des polymersomes « intelligents » à base de polypeptides dont les propriétés et structures sont analogues à celles des virus.
Pour aller plus loin dans le mimétisme et l'inspiration biologique, une étape devait être franchie : encapsuler ces polymersomes les uns dans les autres. Ce cloisonnement permet de mimer la structure d'une cellule, elle-même constituée de compartiments (des petites organelles internes, sièges de milliers d'interactions et de réactions quotidiennes) et d'un cytoplasme viscoélastique, lui conférant entre autres une certaine stabilité mécanique. Mais, former de manière contrôlée des polymersomes emboités les uns dans les autres s'avère complexe.
Les chercheurs sont parvenus à cette prouesse en utilisant une méthode d'émulsion/centrifugation originale, simple d'utilisation, peu coûteuse en temps et en produits, et surtout très efficace. Par imagerie, ils ont ensuite mis en évidence, à l'aide de marqueurs fluorescents, la formation d'une structure « emboîtée » de polymersomes dans un autre. Maîtriser cette compartimentation permet désormais d'envisager l'encapsulation de multiples composés (dans les multiples polymersomes internes) au sein d'un même vecteur. C'est ce qu'ont démontré les chercheurs dans un second temps : ils ont encapsulé deux populations de polymersomes internes différents dans un polymersome unique plus grand. Au vu de leurs résultats, il est envisageable d'incorporer un nombre de vésicules distinctes beaucoup plus important. Cette capacité s'avère très intéressante pour la vectorisation combinatoire, en oncologie par exemple, où la faculté de pouvoir délivrer des composés actifs (parfois incompatibles) au sein d'un même vecteur est recherchée.
Ces structures originales pourraient par ailleurs être utilisées en tant que réacteurs compartimentés, en catalyse ou dans le domaine biomédical. Les chercheurs sont parvenus à encapsuler trois molécules fluorescentes différentes (utilisées comme « molécules modèles » de principes actifs) dans les trois compartiments différents que recèlent ces structures, à savoir la membrane du polymersome externe, la cavité aqueuse du polymersome externe et la membrane des polymersomes internes. On pourrait donc envisager d'encapsuler des réactifs différents dans différents compartiments des polymersomes ou bien de contrôler le déclenchement de réactions différentes, en cascade dans ces polymersomes.
Outre une meilleure protection des principes actifs encapsulés, l'autre intérêt de cette « mise en boite » réside dans un meilleur contrôle, une modulation plus fine des propriétés de perméabilité des vésicules. Les chercheurs ont modélisé cela via une expérience de libération in vitro d'un agent anticancéreux, la doxorubicine (DOX), incorporé dans les polymersomes internes. La DOX est effectivement libérée plus vite (environ deux fois) lorsqu'elle est intégrée dans des nanopolymersomes classiques, que lorsque ceux-ci sont eux-mêmes encapsulés dans des polymersomes externes.
A ce jour, les chercheurs sont les premiers à présenter ce type d'encapsulation multiple et contrôlée dans des vésicules compartimentées, en particulier polymères, contenant également un mime du cytosquelette : ainsi, la structure cellulaire complète est reproduite.
CNRS
|
|
|
|
|
|
|
|
Des scientifiques de l’Inserm viennent de mettre en évidence qu’un régime riche en graisse et en sucre empêche la destruction des neurones du système nerveux entérique chez la souris. En ralentissant le vieillissement naturel de ce second cerveau, ce régime particulier contribuerait au développement de l’obésité. C’est la conclusion surprenante d’un projet de recherche franco-allemand coordonné par Michel Neunlist, directeur de recherche à l’Inserm et Raphaël Moriez de l’Unité Inserm 913 "Neuropathies du système nerveux entérique et pathologies digestives : implication des cellules gliales entériques" à Nantes. Trop nombreux, ces neurones seraient alors trop efficaces et accélèreraient la vidange gastrique. Cet effet pourrait contribuer au développement de l’obésité en diminuant les signaux de satiété et en augmentant ainsi la prise alimentaire. Ces travaux sont publiés dans The Journal of Physiology.
En plus de notre cerveau qui contrôle l’ensemble des fonctions physiologiques, notre organisme dispose d’un second cerveau chargé de réguler les fonctions digestives. Cet autre cerveau, ou système nerveux entérique (SNE), est situé tout le long du tube digestif ; il est composé de plus de 100 millions de neurones faisant ainsi du tube digestif le second organe neurologique de notre corps. Le SNE joue un rôle central dans le contrôle de nombreuses fonctions allant de la régulation de la motricité digestive (vidange gastrique, transit colique), à l’absorption des nutriments en passant par le contrôle des fonctions de la barrière intestinale, barrière qui protège des agents pathogènes extérieurs.
Depuis quelques années les chercheurs découvrent le rôle clef du SNE, véritable acteur dans de nombreuses pathologies non seulement digestives (maladies fonctionnelles digestives, maladies inflammatoires chroniques intestinales) mais aussi extra-digestives (maladie de Parkinson). De manière surprenante, alors que l’obésité est une pathologie en très nette augmentation et représente un véritable défi en santé publique, très peu de données sur l’implication du rôle du SNE dans cette pathologie existent. Ceci est d’autant plus surprenant que le SNE joue aussi un rôle central dans le contrôle des fonctions clés nécessaires à l‘absorption des aliments et aussi à la régulation de la prise alimentaire.
Afin de disposer d’éléments plus précis sur le sujet, les chercheurs ont étudié l’impact d’un régime riche en sucre et graisse sur le SNE et ses répercussions sur la vidange gastrique et le transit intestinal. En empêchant la maturation du second cerveau, un régime riche en graisse et en sucre contribuerait au développement de l’obésité.
Ces travaux ont mis en évidence, de manière inattendue, que ce régime administré à des souris jeunes, prévenait la perte de neurones observée normalement chez les animaux contrôles au cours du temps. "Nous pensons qu’en empêchant l’évolution naturelle du système nerveux entérique au cours du temps, le régime riche en graisse et sucre empêcherait le tube digestif de s’adapter à un régime correspondant à l’âge adulte et maintiendrait son phénotype jeune correspondant à une période de la vie où la prise alimentaire est maximale" déclare Raphaël Moriez.
D’un point de vue fonctionnel, cette neuroprotection induite par le régime hypercalorique conduit à une modification des fonctions gastriques. Ainsi, chez les animaux recevant le régime riche en graisse et sucre, la vidange gastrique est trop rapide par rapport aux animaux contrôles et pourrait directement contribuer au développement de l’obésité en diminuant les signaux de satiété et en augmentant ainsi la prise alimentaire. Ce même phénomène d’accélération de la vidange gastrique est observé chez les patients obèses. D’un point de vue physiologique, cet effet ‘neuroprotecteur’ du régime hypercalorique est associé à une augmentation de la production gastrique d’un facteur neuroprotecteur, le GDNF, lui-même induit par la leptine, une hormone désormais bien connue pour réguler la satiété chez l’homme.
Ces travaux mettent en exergue la capacité des nutriments à moduler le fonctionnement du second cerveau et le rôle de ce cerveau dans le développement de l’obésité, en particulier juvénile. A terme, la prévention de pathologies neurodégénératives digestives voire du système nerveux central pourrait être modifiée par des approches nutritionnelles.
Inserm
|
|
|
|
|
|
|
|
Une étude de l'Université Illinois, publiée dans la revue Molecular Nutrition & Food Research vient de montrer que le maté ou thé mexicain pourrait prévenir le cancer du côlon. Cette étude montre que les cellules humaines de cancer du côlon meurent une fois exposées aux composés bioactifs présents dans une tasse de ce « thé », depuis longtemps consommé en Amérique du Sud pour ses propriétés médicinales.
C’est une espèce végétale sud-américaine (Ilex paraguariensis) de la même famille que le houx, celle des Aquifoliaceae. Ses feuilles, torréfiées et infusées dans l'eau chaude, fournissent une boisson stimulante, le maté. Les dérivés de caféine présents dans le maté ont non seulement induit la mort des cellules cancéreuses mais également réduit les marqueurs de l'inflammation", explique Elvira de Mejia, professeur agrégé de chimie alimentaire et toxicologie alimentaire à l’Université de l’Illinois. Un résultat important, alors que l'inflammation est l’un des facteurs déclenchants de la progression du cancer. Dans cette étude in vitro, les chercheurs ont isolé, purifié, puis traité des cellules humaines de cancer du côlon avec de l’acide caféoylquinique, un polyphénol dérivé du maté, présent également dans la pulpe de café. Lorsque les scientifiques augmentent la concentration d’acide caféoylquinique, ils constatent l'apoptose (la mort) des cellules cancéreuses.
«En fait, la cellule cancéreuse s'autodétruit parce que son ADN a été endommagé», explique l’auteur. Cette capacité du composé à induire l'apoptose est une stratégie thérapeutique prometteuse pour tous les types de cancer, ajoute-t-elle. Les chercheurs se déclarent capables d'identifier le mécanisme qui conduit à la mort cellulaire. L’acide caféoylquinique entraine une diminution considérable de plusieurs marqueurs de l'inflammation, notamment le marqueur nommé NF-kappa-B, qui régule de nombreux gènes producteurs d'enzymes importantes : Les cellules cancéreuses meurent avec l'induction de deux enzymes spécifiques, la caspase-3 et la caspase-8.
En réduisant l'activité de NF-kappa-B, un marqueur important de l'inflammation dans le cancer, les chercheurs pourront contrôler la transformation de cellules normales en cellules cancéreuses. Les résultats de l'étude suggèrent donc que ce dérivé de caféine dans le maté présente un vrai potentiel anti-cancéreux et, au-delà, pourra trouver un usage thérapeutique dans d'autres maladies associées à l'inflammation. Le colon et sa microflore jouant un rôle majeur dans l'absorption et le métabolisme de la caféine et de ses composés apparentés, les effets anti-inflammatoires et anti-cancer du maté pourraient se révéler plus efficaces dans le côlon. Selon les chercheurs, les preuves des bénéfices bioactifs du maté sont démontrés et en consommer ne peut qu’être bénéfique pour prévenir le cancer du côlon. Des sachets de maté sont disponibles dans tous les magasins d’aliments « de santé » et dans les supermarchés, précisent même les auteurs !
Molecular Nutrition & Food Research
|
|
|
|
|
|
|
|
Les derniers résultats de recherche sur la démence, présentés à l'Académie des sciences par l'Institut Baulieu, ont une nouvelle fois surpris les neurologues. Il y a deux ans, pratiquement jour pour jour, le Professeur Étienne-Émile Baulieu et son équipe Inserm suscitaient l'incrédulité des spécialistes de la maladie d'Alzheimer en annonçant avoir identifié une protéine (FKBP52) impliquée dans les démences séniles. À l'époque, la plupart des chercheurs étaient encore focalisés sur les dépôts de plaques amyloïdes dans le cerveau, une lésion que l'on observe assez tôt dans l'évolution de la maladie d'Alzheimer.
Mais la piste ouverte par le Professeur Baulieu vise un autre mécanisme qui est au cœur de la maladie. «C'est une approche originale, commente le Professeur Françoise Forette, directrice de la Fondation nationale de gérontologie, car si la recherche sur les dépôts amyloïdes reste importante, il est possible que dans la maladie d'Alzheimer, il faille associer les thérapeutiques». Raison de plus pour multiplier les pistes de recherche. La publication prochaine dans le Journal of Alzheimer's Disease des résultats obtenus par l'équipe de Baulieu, à partir de coupes de cerveaux de patients décédés avec une démence, sont éloquents. Ils confirment bien la diminution considérable de la fameuse protéine FKBP52 dans les cerveaux déments. Or, cette substance est censée jouer un rôle protecteur lorsqu'elle est présente dans le cerveau en empêchant notamment l'altération d'une autre protéine, centrale dans la pathologie des démences, la protéine tau.
D'ailleurs, on ne trouve pas de protéine tau anormale dans les zones du cerveau où le taux de FKBP52 est élevé. La protection semble donc bien, anatomiquement et quantitativement, efficace : une notion essentielle qui pourrait a contrario expliquer le peu de résultats obtenus à ce jour par les chercheurs qui ciblaient la seule protéine tau. Les nouveaux travaux réalisés grâce à la banque de cerveaux de la Pitié-Salpêtrière, à Paris, confirment in fine l'hypothèse émise il y a deux ans et ouvrent la porte à un diagnostic précoce de la maladie et à un traitement : «L'idée est maintenant de mesurer le taux de cette protéine par une ponction lombaire pour détecter les personnes à risque et pouvoir stimuler cette protéine dès que l'on aura trouvé une molécule à la fois active et bien tolérée. Ça peut aller très vite», résume le Professeur Baulieu. D'ores et déjà, le liquide céphalo-rachidien d'une cinquantaine de malades est décortiqué par l'équipe de l'Institut Baulieu et des dizaines de molécules sont en cours d'évaluation.
Le Figaro
|
|
|
|
|
|
|
|
C’est la seconde étude à suggérer qu’une dose quotidienne de statines, une classe de médicaments pour abaisser le cholestérol, pourrait contribuer à bloquer la croissance et la propagation des tumeurs. Cette recherche de laboratoire, co-financée par les NIH et la Breast Cancer Research Foundation, publiée dans l’édition du 20 janvier de la revue Cell, confirme non seulement le rôle clé d'une mutation génétique sur le gène P53 dans le développement du cancer du sein mais suggère l’efficacité des statines pour stopper la progression et la diffusion des tumeurs.
La recherche a été effectuée sur des cultures cellulaires de tumeurs du cancer du sein contenant une mutation du gène P53, par des chercheurs de l'Université de Columbia et d'autres instituts américains, du Japon et de Norvège. Ces chercheurs ont identifié la séquence biochimique spécifique ou «voie» via laquelle la mutation génétique induit les cellules à devenir cancéreuses. Cette voie est également impliquée dans la production de cholestérol et pourrait donc, peut-être être bloquée par les statines ? Les scientifiques ont néanmoins d’abord tenté de modifier les effets de cette mutation génétique et la moitié des cellules tumorales ont repris alors une structure normale. Et lorsqu’ils introduisent une version mutée du gène P53 dans les cellules mammaires non cancéreuses, ces cellules évoluent bien vers des cellules cancéreuses.
L’efficacité de la simvastatine : Les scientifiques ont ensuite regardé comment certains médicaments, dont plusieurs statines, pourraient interférer avec les effets de ce gène muté. Ils confirment qu’une statine, la simvastatine, permet de réduire la croissance des cellules cancéreuses et accroître l’apoptose (la mort) des cellules cancéreuses, avec un impact plus important qu’en intervenant sur la seule mutation du gène. Cette constatation est vérifiée à la fois sur des cellules tumorales porteuses de la mutation P53 ou sur la croissance de cellules cancéreuses implantées sur des souris.Cette recherche était donc à nouveau centrée sur ce fameux gène P53 qui code pour la production d'une protéine du même nom, connue pour contrôler la vie ou la mort des cellules, et l’un des acteurs clés de la recherche contre le cancer, depuis de longues années. Son inactivation est constatée chez 50 % des personnes atteintes de cancers. Nous avons couvert récemment une étude de l’Inserm, publiée dans la revue Cancer Cell, qui décrypte son mécanisme en chaine avec 2 autres protéines.
Les chercheurs confirment, avec cette recherche, que la mutation du gène P53 est nécessaire et suffisante pour générer la croissance de cellules cancéreuses (en laboratoire) et suggèrent que les statines sont efficaces pour interférer avec le développement de ces tumeurs avec un triple effet, sur la croissance cellulaire, sur la mort cellulaire et la propagation. Une étude de novembre dernier publiée dans le Journal of the National Cancer Institute avait déjà suggéré qu’une dose quotidienne de statines lipophiles comme la simvastatine, pouvait réduire considérablement le risque de récidive de cancer du sein.
Santé Log
|
|
|
|
|
|
|
|
Les gènes déterminent en partie notre longévité... Et qu'en est-il pour notre intelligence? La génétique aurait aussi sa part de responsabilité.
«Le temps ne fait rien à l’affaire», chantait George Brassens, s’adressant aux «petits cons de la dernière averse» et «aux vieux cons des neiges d'antan»… Les gènes seraient en partie responsables de cette situation, d’après une estimation réalisée par des chercheurs britanniques. L’équipe coordonnée par Ian Deary (Université d’Edimbourg) a voulu mesurer l’influence de la génétique sur l’évolution des capacités intellectuelles au cours de la vie. Ils estiment au final que nos gènes seraient responsables d’environ 25 % des hauts et des bas de notre intelligence au cours de notre existence.
Ces résultats suggèrent que les mêmes facteurs génétiques qui influencent l’intelligence (telle qu’elle est mesurée par des tests) chez les enfants déterminent l’intelligence des personnes âgées. La part prise par la génétique, autour de 25 %, laisse par ailleurs la plus grosse responsabilité aux facteurs environnementaux.
Cette étude s’appuie sur une cohorte de 2.000 personnes, qui ont fait partie d’une expérience assez unique menée en Ecosse : en juin 1932 et en juin 1947, des chercheurs ont fait passer des tests d’intelligence (Moray House Test) à presque tous les enfants nés en 1921 et 1936 (les enfants ont été testés à l’âge de 11 ans). Deary et ses collègues ont retrouvé 1.940 personnes qui avaient ainsi été testées enfant et ont de nouveau mesuré leurs capacités cognitives à un âge avancé. Les chercheurs ont aussi réalisé des prélèvements ADN et comparé 500.000 marqueurs génétiques (SNP, variation d’un seul nucléotide dans l’écriture des gènes).
Cette étude, publiée dans la revue Nature (19 janvier 2012) ne permet pas de déterminer précisément quels sont les gènes en cause mais de cerner leur part. Située autour de 25 %, elle signifie que leur étude plus approfondie est valable pour mieux comprendre les facteurs influençant l’évolution des fonctions cognitives. Evolution très variable d’un individu à un autre. Toute la difficulté pour les scientifiques est d’y voir clair dans les interactions entre la génétique et l’environnement, avec pour but d’améliorer le vieillissement de nos capacités intellectuelles !
Sciences et Avenir
|
|
|
|
|
|
|
|
Les patients atteints d'un cancer du rein métastatique en rémission complète sous inhibiteurs de tyrosine kinase pourraient interrompre leur traitement, estiment des spécialistes français du cancer du rein dans une étude publiée en ligne sur le site de la revue Journal of Clinical Oncology.
L'avènement des thérapies ciblées a révolutionné le traitement des cancers du rein métastatiques qui ne bénéficiaient d'aucune chimiothérapie efficace. Ceci est particulièrement vrai avec les inhibiteurs de tyrosine kinase, comme le sunitinib (Sutent ®) ou sorafenib (Nexavar ®), qui ont porté à plus de 2 ans la survie globale de la moitié des patients. Plusieurs cas de rémissions complètes ont même été observés, amenant les cancérologues à se poser la question de l'arrêt du traitement.
Pour approfondir cette question, les Drs Laurence Albiges et Bernard Escudier, cancérologues et spécialistes du cancer du rein et de l'immunothérapie à l'Institut de cancérologie Gustave Roussy (IGR), ont mené une étude rétrospective auprès de 64 patients en rémission complète avec des inhibiteurs de tyrosine kinase, seuls ou en complément d'une thérapie locale (chirurgie, radiothérapie ou radiologie interventionnelle).
Parmi ces patients, 36 étaient en rémission complète sous l'un des deux inhibiteurs de tyrosine kinase pré-cités, tandis que les 28 autres cas l'étaient avec un traitement local en plus :
- Sur les 28 patients uniquement sous inhibiteur de tyrosine kinase qui ont stoppé leur traitement, 17 (soir 61 %) étaient en rémission complète 255 jours après.
- Sur les 25 patients qui ont interrompu leur traitement associant un inhibiteur de tyrosine kinase et un traitement local, 12 (soit 48 %) étaient en rémission complète 322 jours après. Pour les auteurs, ces résultats montrent que "l'arrêt du traitement après rémission complète sous inhibiteurs de tyrosine kinase est une option acceptable".
Doctissimo
|
|
|
|
|
|
|
|
La plasticité des systèmes biologiques permet à des organismes de modifier dynamiquement leur physiologie de façon à s'adapter aux conditions environnementales existantes. Si au niveau cellulaire, ce processus est associé habituellement au système immunitaire, au niveau tissulaire, il a été caractérisé il y a plusieurs années dans le cerveau et est au coeur d'une intense recherche en neurobiologie.
Mais en dehors de ces deux systèmes qui permettent de garder en mémoire des informations à long terme, rien n'indiquait jusqu'à présent que d'autres cellules pouvaient fonctionner de façon similaire. Or une équipe de chercheurs de l'Inserm et du CNRS, dirigée par Patrice Mollard au sein de l'Institut de Génomique Fonctionnelle de Montpellier, vient de montrer chez la souris que les cellules endocrines hypophysaires qui régulent la lactation s'organisent en réseau lors d'un premier allaitement, réseau qui est alors "mémorisé" afin d'être encore plus opérationnel lors de l'allaitement d'une seconde portée.
L'originalité de cette découverte, dont les résultats ont été publiés dans la revue Nature communications datée du 3 janvier dernier, réside dans le fait que 3 mois après le sevrage, le réseau reste en place, un peu comme s'il avait été "mis en mémoire". Or Patrice Mollard précise qu'un même stimulus (tétée) effectué par la suite entraînera une réponse plus coordonnée et plus efficace. Ainsi le réseau sécrétera plus de prolactine et provoquera à nouveau un accroissement de la production tissulaire. Néanmoins, si la puissance du stimulus de tétée est réduite, la mise en réseau ne se produit pas.
Or chez les souris dont les portées sont souvent importantes, avec en moyenne 8 petits par portée, si seuls 3 de ces petits sont à la tétée, le stimulus reste trop faible pour déclencher cette mise en réseau. Cette découverte d'une forme de mémoire dans un tel système ouvre évidemment d'immenses perspectives. "Nous pensons que cette découverte pourrait notamment s'appliquer à d'autres systèmes endocriniens tels que celui des cellules bêta pancréatiques et des cellules endocrines du tractus gastro-intestinal", estiment les auteurs de l'article.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Le groupe de recherche Advanced Scientific Research Leaders Development Unit mené par le professeur Takao IWAKI de l'Université de Gunma, a récemment développé un protocole opératoire permettant d'observer in vivo le stress oxydatif et son évolution dans les cellules de souris.
Le stress oxydatif (ou oxydant) est une agression des constituants cellulaires par une réaction d'oxydation. Elle est entraînée par l'action d'espèces réactives oxygénées (ROS) et des espèces réactives oxygénées et azotées (RONS) produites naturellement dans l'organisme. En raison de leur grande réactivité et des effets nocifs qu'elles exercent, des systèmes de défense enzymatiques ou biochimiques les éliminent ou les modifient. Cependant, ces défenses peuvent perdre de leur efficacité et devenir peu à peu submergées par les ROS et RONS. Malgré les nombreuses études réalisées sur le stress oxydatif, aucune méthode ne permettait jusqu'à maintenant de l'observer in vivo.
La stratégie développée par les scientifiques de l'Université de Gunma a été de créer des souris transgéniques nommées OKD 48 dont les cellules deviennent fluorescentes sous l'effet du stress oxydatif. L'ADN modifié de ces souris s'est vu insérer le gène de la luciférase, transcrit en conditions oxydantes par le facteur Nrf2. Après transcription et stabilisation protéique de la luciférase, une émission de lumière fluorescente se produit, témoignant de l'activation de la voie Keap1-Nrf2. La voie Keap1-Nrf2 constitue un système de défense biochimique et un mécanisme de détection du stress oxydatif. Sa défaillance est également mise en cause dans certaines maladies neurodégénératives telles que la maladie d'Alzheimer, de Parkinson, d'Huntington ou bien encore de la sclérose latérale amyotrophique. L'activation de cette voie et l'observation des cellules grâce à la luciférase apportent ainsi des informations précieuses sur le déclenchement des défenses de l'organisme et sur l'intensité du stress oxydatif proportionnel à l'intensité lumineuse.
Ces travaux publiés dans la revue Scientific Reports datée du 19 janvier 2012, pourraient aider les chercheurs à développer de nouveaux traitements permettant le renforcement des défenses cellulaires dans les conditions de stress oxydatif.
Bulletins Electroniques
|
|
|
|
|
|
|
|
La monnaie est une invention récente, à l'échelle de l'évolution des espèces. Alors que notre cerveau a eu le temps de s'adapter à certains dangers ou prédateurs qui le côtoient depuis des millions d'années (araignées ou serpents), on considère qu'il n'a pas eu le temps de se doter de structures innées spécifiques à la reconnaissance de l'argent.
Et pourtant, Catherine Tallon-Baudry, de l'Institut du cerveau et de la moelle, et ses collègues ont montré que le cerveau présente une activité bien particulière quand on lui présente une pièce de monnaie, et ce indépendamment du fait que cette pièce ait été ou non vue ou utilisée préalablement. Comme si le concept d'argent avait trouvé un ancrage dans certains circuits neuronaux, que l'on nomme la voie visuelle ventrale.
Dans leurs expériences, C. Tallon-Baudry et ses collègues ont présenté à des volontaires des pièces de monnaie connues, ayant ou non une valeur aujourd'hui (euros et francs), et également des pièces inconnues ayant ou non une valeur (dollars canadiens et marks finlandais). Ils ont constaté que le fait de représenter une valeur monétaire, indépendamment de la familiarité de la monnaie, active la voie visuelle ventrale. C'est le cas de l'euro et du dollar canadien. En revanche, une pièce sans valeur actuelle, qu'elle soit familière ou non, ne l'active pas : c'est le cas du franc ou du mark finlandais.
Ces expériences montrent que le cerveau s'est adapté à une donnée culturelle (économique et sociale), la monnaie, en établissant un moyen de catégorisation régulière et identique d'une personne à l'autre de cette donnée culturelle. C'est aussi ce qui s'est passé lors de l'invention de l'écriture : avant l'apparition des premiers symboles écrits, aucune zone du cerveau n'avait évolué en fonction d'une quelconque contrainte de sélection intégrant les symboles écrits. Malgré tout, le cerveau a mobilisé des zones bien précises pour traiter l'écrit, et ces aires cérébrales sont aujourd'hui bien identifiées.
D'autres symboles culturels, représentant un concept nouveau et distinct comme ce fut jadis le cas de la monnaie ou de l'écriture, pourraient à l'avenir « recruter » des zones cérébrales qui n'avaient certainement pas été « conçues » à cette fin. Cela pourrait être le cas de l'arobase qui revêt une valeur particulière dans le monde d'Internet, ou du « hashtag », symbole « dièse » sur un clavier d'ordinateur, de plus en plus utilisé sur les pages Twitter pour attribuer une fonction générique à un mot-clé lors d'une recherche. L'effet du hashtag est de transformer un mot en « mot-clic » qui entraîne l'affichage de toutes ses occurrences sur d'autres pages Twitter ou Internet. La valeur conceptuelle d'un mot-clic étant très différente d'un mot simple, il est probable que chez les internautes en faisant un usage régulier, une zone du cerveau prenne en charge ce nouveau concept. Mais il faudrait d'autres expériences pour s'en assurer.
Pour La Science
|
|
|
|
|
|
|
|
Dans le but de remédier au dysfonctionnement de certaines zones cérébrales affectées par une maladie, les scientifiques ont mis au point des puces électroniques qui devraient être implantées dans le cerveau et reliées au système neurologique. Une nouvelle avancée technologique qui n’a pas encore été testée sur l’homme, les essais ayant été réalisés sur des rats de laboratoire.
Des nano-électrodes sont placées dans la boite crânienne des rats et permettent une connexion entre la puce électronique et le cerveau du rongeur. Lorsque le tronc cérébral envoie un signal interne, il est réceptionné par la puce qui diffuse ensuite une information aux centres moteurs du cerveau, chargés de coordonner les différents mouvements du corps ou encore la respiration par exemple. Un intermédiaire artificiel qui permet d’acheminer le message cérébral à bon port, en se substituant aux connexions naturelles déficientes.
Cette expérience se révèle probante scientifiquement ; les rats réagissent à certains stimuli. Ils ont notamment appris à avancer à chaque stimulation. Mais pour réaliser ces expériences, il fallait disposer de rats présentant de graves lésions cérébrales et ne possédant plus de capacités motrices.
Une expérience qui suscite la colère des associations de défense des animaux, car pour qu’un rat réponde à un stimulus, c’est la puce électronique qui prend le relais et met le rongeur en mouvement. Il s’agit bien ici de remplacer la partie abîmée du cerveau afin que la puce puisse imiter les fonctions qui font défaut. Ce qui transforme les rongeurs en véritables petits robots téléguidés. Des expérimentations inadmissibles pour les défenseurs des animaux.
Malgré ces protestations, les tests s’avèrent concluants : des rongeurs privés de motricité à cause d’un cerveau endommagé retrouvent l’usage de leurs pattes et recommencent à marcher grâce à cette technique.
RTL
|
|
|
|
|
|
|
|
Le curcuma est une épice alimentaire, considérée dans la médecine ayurvédique comme une plante médicinale. Extrait des rhizomes du curcuma, le curcumin a montré in vitro des activités anti-oxydantes, anti-cancéreuses, anti-inflammatoires, anti-diabétogènes, anti-parasitaires, mais aussi cicatrisantes et hypocholestérolémiantes.
Malgré ses nombreuses activités pharmacologiques, il est impossible d’utiliser le curcumin comme un médicament. En effet, ses caractéristiques physico-chimiques limitent son absorption au travers de la paroi intestinale et son entrée dans les cellules. De plus, il est rapidement métabolisé en une forme inactive. Sa biodisponibilité est donc faible et incompatible avec un usage thérapeutique. Pour contourner ce problème, le curcumin peut être lié chimiquement à des molécules ligands, qui augmentent sa biodisponibilité dans l’organisme.
Une équipe de chercheurs indiens a synthétisé deux nouveaux bioconjugués de curcumin, l’un est un curcumin estérifié par l’acide nicotinique (vitamine B3) et l’autre par l’isomère de l’acide nicotinique, l’acide picolinique. Les deux bioconjugués obtenus contiennent un noyau hétérocyclique, structure souvent retrouvée dans les molécules antibiotiques.
L’activité antibactérienne de ces bioconjugués a été étudiée sur 4 agents pathogènes importants en médecine humaine : Enterococcus faecium, Klebsiella pneumoniae, Escherichia coli et Pseudomonas aeruginosa. Ont été déterminées notamment les concentrations minimales inhibitrices et les concentrations minimales bactéricides des bioconjugués pour chaque bactérie. L’activité antibactérienne des deux bioconjugués s’est révélée supérieure à celle du curcumin dans le cas de Klebsiella pneumoniae et E. coli. En revanche, leur activité antibactérienne est plus faible que celle du curcumin dans le cas de Enterococcus faecium et Pseudomonas aeruginosa. Le mécanisme responsable de cette différence est actuellement en cours d’étude.
Les deux bioconjugués sont des complexes vitaminiques, qui peuvent ainsi être facilement administrés par voie orale. Ils pourraient permettre de mettre à profit en thérapeutique les propriétés pharmacologiques du curcumin. Des essais cliniques restent à réaliser pour évaluer l’intérêt et la place de ces bioconjugués dans l’arsenal actuel des antibiotiques.
JIM
|
|
|
|
|
|
|
|
Les chercheurs s'en doutaient depuis quelques années déjà : un individu est plus que la somme de ses gènes ; l'architecture de ses chromosomes serait aussi un facteur clé pour le bon fonctionnement de ses cellules. Mais jusqu'ici, une réelle compréhension des principes qui organisent le repliement du génome dans le noyau échappait aux analyses. Et depuis 4 ans, une vingtaine d'équipes dans le monde tentaient de mettre au point une technique d'analyse pour étudier ce repliement.
La méthode de l'équipe CNRS dérive d'une autre développée par une équipe américaine en 2009. Une technique baptisée « capteur de la conformation des chromosomes» (Hi-C), qui permet de décrire les contacts que chaque région du génome établit avec les autres. Comme la version américaine, la méthode montpelliéraine consiste en trois grands étapes : figer les contacts dans ou entre les chromosomes avec le composé formaldéhyde ; lier les bouts des deux gènes en contact avec la molécule ADN ligase, d'origine bactérienne ; et déterminer la séquence de ces deux gènes. Mais Giacomo Cavalli et ses collègues y ont apporté d'importantes améliorations rendant possible l'étude de fragments d'ADN beaucoup plus petits (de quelques centaines de paires de bases, contre des fragments de 5-10 kilobases avant). Ce qui permet de cartographier ces contacts à haute résolution.
Avec cette technique, les chercheurs montpelliérains et leurs collègues israéliens ont analysé le génome de la mouche du vinaigre ou drosophile. Un animal avec un génome quinze fois plus petit que le nôtre. Résultat : l'équipe a pu y identifier… 118 millions de zones de contact ! L'analyse de ces zones leur a permis ensuite d'établir des cartes d'interaction très détaillées. Ces cartes montrent que les chromosomes sont organisés en domaines contenant un ou plusieurs gènes. Séparés par des régions frontières, ces domaines correspondent soit à des zones activement exprimées, soit à des régions inactives.
Grâce aux compétences en mathématiques de l'équipe israélienne de Amos Tanay, les deux équipes ont pu ensuite développer un modèle informatique capable de prédire assez fidèlement le repliement réel des chromosomes. Très puissant, cet outil a permis de décrypter les principes fondamentaux qui régissent l'organisation tridimensionnelle du génome. Notamment, il est apparu que les domaines inactifs ont tendance à former des contacts avec d'autres domaines inactifs souvent proches sur le même chromosome, alors que les domaines actifs « contactent » d'autres domaines actifs lointains ou proches et éventuellement sur d'autres chromosomes.
Cruciaux, ces travaux devraient permettre de mieux comprendre les différences de repliement chromosomiques selon les types de cellules (cellules de foie, de muscle, nerveuse, etc.) et l'importance de ce repliement dans la survenue de cancers.
CNRS
|
|
|
|
|
|
|
|
La protéine p53, connue pour contrôler la vie ou la mort des cellules, est un des acteurs clés de la recherche contre le cancer. Son inactivation est constatée chez 50 % des personnes atteintes de cancers. Si les chercheurs réussissaient à rétablir la présence de p53 chez les malades, ils tiendraient peut-être une piste thérapeutique prometteuse. Toutefois, p53 n’agit pas seule. Son expression est liée à celle de Mdm2. Dans un article paru dans la revue Cancer Cell, Robin Fahraeus et ses collaborateurs de l’Unité Inserm 940 "Cibles Thérapeutiques du Cancer" démontrent que la réponse cellulaire à un dommage de l’ADN nécessite l’intervention de la protéine kinase ATM pour permettre à Mdm2 de réguler positivement ou négativement la protéine p53. La protéine p53 est très étudiée dans la recherche contre le cancer. Découverte en 1979, elle régule finement la prolifération des cellules et déclenche selon les besoins la réparation de la cellule ou sa mort naturelle programmée (apoptose).
Contrairement aux cellules "normales", le cycle cellulaire des cellules tumorales s’emballe, provoquant la prolifération de cellules de manière anarchique, à l’origine du cancer. Les cellules deviennent immortelles et provoquent alors des dérégulations importantes dans l’organisme. Il y a déjà quelques années, les chercheurs ont prouvé que le gène de la protéine p53 est inactivé dans la moitié des cancers chez l'Homme. Le gène codant pour p53 a été classé comme gène suppresseur de tumeur. Les scientifiques ont émis l’hypothèse qu’en réactivant ce gène, ils pourraient empêcher cet emballement cellulaire responsable de la formation des tumeurs cancéreuses. Mais, ils découvrent plus tard, que p53 est elle-même régulée par un autre acteur : la protéine Mdm2. Ils pensaient alors avoir trouvé un moyen de réactiver p53.
Robin Farhaeus et ses collaborateurs apportent aujourd’hui un nouvel élément de compréhension des mécanismes de cancérisation : l’implication de la protéine kinase ATM dans la régulation de p53 par Mdm2. "Après un dommage sur l’ADN, Mdm2 est nécessaire pour activer p53 et cela peut se faire grâce à l’intervention de la protéine ATM kinase" explique Robin Farhaeus, directeur de recherche à l’Inserm. Pour réaliser cette démonstration, les chercheurs ont remonté la cascade d’événements qui déclenchent l’activation de p53. L’activation de Mdm2 est due à sa phosphorylation par la protéine kinase ATM, elle-même activée en cas de stress cellulaire. Cette phosphorylation de Mdm2 est cruciale pour passer d’un état de régulateur négatif à régulateur positif de p53 et favoriser ainsi son interaction avec l’ARNm de p53 pour induire sa traduction. Ceci conduit à une augmentation de la quantité de p53 dans la cellule.
Inserm
|
|
|
|
|
|
|
|
Les résultats de l’essai de thérapie génique de phase I pour la gamma-sarcoglycanopathie, une maladie neuromusculaire rare, ont été publiés dans la revue Brain, le 11 janvier 2012. Débuté en décembre 2006, cet essai, dont le promoteur est Généthon, le laboratoire de l’AFM-Téléthon, a été mené à l’hôpital de la Pitié-Salpêtrière (AP-HP) au sein de l’Institut de Myologie et du service de médecine interne par les Professeur Serge Herson (Chef de service, Médecine interne 1) et Olivier Benveniste (PU-PH, Médecine interne 1), investigateurs principaux. Son objectif était d’évaluer la tolérance à l’injection locale de doses croissantes d’un vecteur viral AAV portant le gène normal de la gamma-sarcoglycane (la protéine défectueuse dans cette maladie), mais aussi la réaction immunitaire locale et systémique, ainsi que la qualité du transfert de gène dans les muscles injectés, en termes d’efficacité, d’expression et de distribution.
Neuf malades non ambulatoires, âgés de 16 à 38 ans, ont été inclus de décembre 2006 à décembre 2009. Trois doses croissantes de vecteurs viraux AAV1 transportant le gène normal de la gamma-sarcoglycane ont été injectées dans un muscle de l’avant-bras. Un mois après l’injection, la zone traitée a fait l’objet d’une biopsie et a été analysée.
Cet essai livre aujourd’hui ses résultats et ils sont encourageants. Tout d’abord, les injections ont été bien tolérées, sans effets indésirables physiques ou biologiques. En outre, chez cinq malades, les analyses ont détecté la présence d’ARN du gène thérapeutique, c’est-à-dire du matériel génétique intermédiaire entre le gène et la protéine. L’analyse immunohistochimique du muscle injecté montre l’expression de la protéine γSGC chez les trois patients qui ont reçu la dose la plus forte. Par ailleurs, chez l’un de ces malades qui a reçu la plus forte dose de traitement, la protéine normale s’exprime en western blot dans les fibres musculaires. Grâce à la thérapie génique, la protéine gamma-sarcoglycane manquante est donc de nouveau produite. Pour Serge Herson, investigateur principal de l’essai : « Les résultats de cet essai vont au-delà de nos espérances : outre le constat de l’absence de toxicité du traitement qui était l’objectif principal de cette étude, nous avons pu avancer sur d’autres aspects comme l’organisation pratique d’un tel essai, l’immunologie et même la dose optimale pour traiter efficacement un ensemble de muscles. Ce résultat est d’autant plus intéressant qu’il signifie que nous avons établi la dose à partir de laquelle le traitement devient efficace. Or, là encore, c’est un fait rarissime pour un essai de phase I. »
Aujourd’hui, médecins et chercheurs de Généthon, de l’Institut de Myologie et de la Pitié-Salpêtrière (AP-HP) poursuivent leurs travaux. Ils envisagent un nouvel essai utilisant un vecteur AAV8 pour traiter un membre complet.
Genethon
|
|
|
|
|
|
|
|
Le cancer de l’estomac est la seconde cause mondiale de mortalité néoplasique, avec 988 000 nouveaux cas par an et 736 000 décès.La pratique d’une gastrectomie élargie de type D2 constitue l’élément essentiel du traitement mais les reprises évolutives sont fréquentes. Une chimio ou une radio chimiothérapie adjuvante contribue à améliorer le pronostic vital, surtout dans les formes limitées bien qu’une analyse par sous groupes ait aussi montré son efficacité dans les stades plus avancés II et III A. Une nouvelle étude plus large, randomisée, de phase 3 a donc été mise en place dans 37 centres de Corée du Sud, de Chine et de Taiwan.
Les patients éligibles avaient 18 ans ou plus ; ils étaient atteints d’un cancer gastrique histologiquement prouvé, à un stade avancé (II, IIIA ou IIIB) et indemnes de métastases. Ils avaient tous été opérés par gastrectomie large D2 avec résection ganglionnaire mais n’avaient reçu ni chimio ni immuno ni radiothérapie. Leur indice de Karnofsky était égal ou supérieur à 70 % et leurs fonctions vitales satisfaisantes. Tous avaient préalablement donné leur consentement par écrit.
Dans les 6 semaines suivant la gastrectomie, une randomisation par pays et par stade a été effectuée. Les patients du bras chimiothérapie ont reçu 8 cycles tri hebdomadaires, soit 6 mois au total de traitement associant capecitabine (1 000 mg/m2 per os deux fois par jour du premier au quatorzième jour du cycle) et oxaliplatine (130 mg/m2 IV le premier jour).
Le suivi a été assuré par un scanner abdominal ou une IRM tous les semestres pendant les 3 premières années, puis tous les ans et par une radiographie pulmonaire, d’abord trimestrielle pendant 2 ans, puis semestrielle, enfin annuelle au-delà de 3 ans.
La survie sans événement pathologique (c'est-à-dire sans rechute, sans second cancer gastrique et sans mortalité) a été l’objectif majeur de l’essai ; les autres points analysés étant la survie globale et la tolérance de la chimiothérapie.
Ainsi, entre Juin 2006 et Juin 2009, 1 035 patients ont été enrôlés en intention de traiter, 520 dans le groupe oxaliplatine-capecitabine, 516 dans le groupe chirurgie seule. Les deux groupes étaient similaires en termes de gravité et de démographie. Le suivi moyen a été également identique (34,2 mois versus 34,3).
A 3 ans, il est apparu que le taux de survie sans événement pathologique était plus élevé sous chimiothérapie (74 % face à 59 %, soit un p < 0,0001). Quatre-vingt-seize patients traités (18 %) ont développé, en cours d’étude une récidive ou un second cancer gastrique contre 155 (30 %) dans le groupe chirurgie seule.
JIM
|
|
|
|
|
La mise en relation d'images morphologiques (scanner, IRM) avec des images dynamiques (vidéo, balayage laser, échographie...) a de nombreuses applications, notamment pour la chirurgie assistée par ordinateur ou la radiothérapie. Les constructeurs de matériel d'imagerie rivalisent donc dans ce domaine.
La dernière innovation en matière d'échographie est à mettre au crédit de Siemens. La version la plus récente de son échographe, l'Acuson S3000, intègre en effet un nouveau procédé permettant de fusionner des images d'échographie avec des images scanner (ou IRM) en trois dimensions d'un simple clic, là où il fallait précédemment intervenir manuellement.
L'appareil intègre aussi une fonction de mesure de l'élasticité des tissus hépatiques et mammaires (« élastographie »). Ces données sont restituées sous forme d'une carte couleur et viennent compléter les éléments de diagnostic apportés par l'échographie, sachant que la rigidité des tissus est souvent un symptôme pathologique.
Les Echos
|
|
|
|
|
|
|
|
De la banale myopie aux maladies rares, la moitié des Français ont des problèmes de vue. Et la situation risque d'empirer, puisque la fréquence des maladies oculaires augmente avec l'âge et que la population vieillit. « C'est l'essor de la biologie moléculaire, de l'instrumentation - notamment le laser - et de la thérapie génique qui ont permis le décollage de la recherche moderne en ophtalmologie dans les années 1990 », explique José-Alain Sahel, directeur de l'Institut de la vision.
La rétine a été la première à bénéficier des progrès de la recherche. Ces dernières années, les trois principaux gènes impliqués dans la dégénérescence maculaire liée à l'âge (DMLA) ont été identifiés. Cette pathologie affecte 10 % des personnes de plus de 75 ans, et constitue la principale cause de cécité. La thérapie génique, quant à elle, semble avoir trouvé avec l'oeil un champ d'application privilégié. On peut l'envisager pour des maladies génétiques de la rétine, comme l'amorause de Lebber ou la maladie de Stargardt pour lesquelles des essais cliniques sont en cours. En attendant une autre technologie prometteuse en test chez l'animal : la thérapie optogénétique, qui consiste à introduire dans le génome de cellules de la rétine le gène d'une protéine photosensible issue d'algues ou de bactéries pour restaurer une perception de la lumière.
Avec la rétine artificielle mise au point par la société californienne Second Sight et l'Institut de la vision, un autre pas important a été franchi. Il s'appuie cette fois sur les progrès de l'électronique et sa miniaturisation. L'implant rétinien utilisé est une puce de 1 mm2 porteuse de 60 électrodes. La pharmacie n'est pas en reste : un certain nombre de molécules, parfois déjà utilisées dans d'autres indications sont aussi testées dans les maladies de l'oeil. C'est le cas par exemple des antiangiogéniques (qui empêchent le développement des vaisseaux), déjà utilisés en cancérologie pour bloquer la croissance des tumeurs, et qui sont maintenant testés dans une forme de la DMLA.
La cornée, pour sa part, devrait bénéficier des approches de thérapie cellulaire pour pallier une relative pénurie de greffons, et de thérapie génomique pour améliorer le pronostic des greffes en cas d'herpès oculaire. En attendant de pouvoir, un jour peut-être, régénérer le nerf optique des patients atteints de glaucome.
Les Echos
|
|
|
|
|
|
|
|
La lecture des forums présents sur le net concernant telle ou telle pathologie est un observatoire souvent édifiant de la perception des patients quant à leurs maladies et les traitements qui leur ont été prescrits. Nécessairement, ces espaces de discussion drainent principalement des questionnements inquiets et excluent par voie de conséquence les personnes qui se montrent les plus confiantes dans la prise en charge qu’elles reçoivent. Néanmoins, il existe des différences très nettes en fonction des pathologies évoquées : dans certains cas, les conséquences elles-mêmes de la maladie ont la part belle, tandis que d’autres forums se focalisent plus certainement sur les traitements médicamenteux.
Qu’en est-il de l’ostéoporose ? Pour connaître le sentiment majoritaire des patientes s’exprimant sur la toile, l’institut Global Media Santé a passé au crible les messages échangés du 28 juin au 7 octobre 2011 sur 44 blogs et 208 forums. Quelques 259 verbatims concernant spécifiquement l’ostéoporose ont pu être identifiés et analysés.
- Une maladie passée sous silence, mais des traitements qui font du bruit
Première constatation de cette enquête, l’ostéoporose ne semble pas ressentie par les blogueuses et autres internautes comme une maladie. D’ailleurs, les forums consacrés spécifiquement à cette pathologie sont rares et si l’ostéoporose est abordée, c’est plus fréquemment au détour d’interrogations sur la ménopause. Conséquence de cette perception particulière, l’ostéoporose est rarement évoquée pour elle-même. Ainsi, sur les 259 verbatims collectés, seuls six s’intéressent aux douleurs et quatre au risque de fracture. On ne parle guère plus de l’étiologie (huit messages) ou des examens à réaliser (neuf échanges). Le sujet numéro un concerne les médicaments. Mais là encore, il ne s’agit pas d’évoquer leur efficacité. Alors que sur d’autres forums dédiés à différentes maladies, le soulagement éprouvé grâce à un médicament peut être facilement abordé, cette dimension est totalement absente des discussions concernant l’ostéoporose. Ici, ce sont les effets secondaires des traitements qui suscitent le plus les débats : un verbatim sur deux s’y intéresse. Les échanges sont parfois sans appel : les patientes affichent clairement leur volonté d’interrompre leur traitement, sans même en référer à leur médecin. « Je n’ai pas attendu, j’ai arrêté de moi-même » peut-on ainsi lire fréquemment.
« Les patientes ont tendance à occulter le bénéfice thérapeutique de leur médicament, tant les contraintes inhérentes au traitement sont parfois lourdes. Elles n’ont pas conscience que celui-ci peut être efficace et y adhèrent difficilement » analyse le Docteur Pascal Boulet, médecin généraliste. Ces réflexions inquiètes sur les médicaments s’accompagnent souvent d’un plébiscite pour les médecines naturelles ou pour les mesures uniquement préventives. L’impact de la nutrition et de l’hygiène de vie sur le risque d’ostéoporose est en effet le second sujet principalement abordé sur ces forums. En la matière, il apparaît que s’il semble exister une certaine confusion entre la consommation de produits laitiers et les apports en calcium, le rôle de la vitamine D et l’intérêt de l’activité physique apparaissent pour leur part bien intégrés.
- L’ostéoporose encore trop souvent perçue comme une fatalité
Pour les promoteurs de l’étude, les laboratoires Amgen et GlaxoSmithKline qui ont présenté les résultats de cette étude à l’occasion du congrès de la Société française de rhumatologie qui s’est déroulé du 11 au 14 décembre, cette veille confirme les problèmes d’observance souvent déplorés par les praticiens. On sait en effet que 50 % des femmes interrompent leur traitement avant la première année et que moins de 40 % des femmes ménopausées fracturées sont correctement traitées. Pour ces deux laboratoires ainsi que pour les groupements de patients, telle l’Association française de lutte anti-rhumatismale (AFLAR), cette étude doit inciter à renforcer la qualité de l’information délivrée aux patientes, afin notamment qu’elles ne perçoivent plus l’ostéoporose comme une fatalité, face à laquelle les médicaments n’auront que peu d’effet.
JIM
|
|
|
|
|
|
|
|
Actuellement, 22 médicaments appartenant à la famille des benzodiazépines (type Lexomil, Seresta, Temesta, Xanax) et apparentés (Imovane, Myolastan, Stilnox...) sont commercialisés en France. Ces molécules agissent sur le système nerveux central et sont à la fois anxiolytiques, hypnotiques (contre l'insomnie), relaxantes musculaires et actives contre les crises d'épilepsie.
Au total, 134 millions de boîtes ont été vendues en 2010, dont 50 % d'anxiolytiques et 37,6 % d'hypnotiques. Cela représente un chiffre d'affaires de 183 millions d'euros, soit 0,7 % du montant total des ventes de médicaments dans notre pays. Enfin, 60 % des consommateurs de ces traitements sont des femmes. C'est par cette série de chiffres que commence l'État des lieux de la consommation des benzodiazépines en France, rendu public récemment par l'Agence française du médicament (Afssaps).
Depuis les années 1990, de nombreux travaux ont souligné le niveau élevé de consommation de médicaments psychotropes par les Français, en particulier les anxiolytiques ainsi que les hypnotiques, et surtout les benzodiazépines. En 2009, selon certaines données européennes, la France était le deuxième pays européen qui prenait le plus d'anxiolytiques (après le Portugal) et d'hypnotiques (après la Suède).
Par ailleurs, un certain nombre d'effets négatifs et de risques sont associés à la consommation de ces médicaments. D'où ce rapport dont le but est d'étudier l'évolution de leur utilisation depuis une décennie grâce aux données des ventes déclarées à l'Afssaps, à celles de remboursement de l'assurance maladie, à d'autres provenant des systèmes de vigilance de l'Agence du médicament et à des études réalisées sur des populations particulières.
Il en ressort que, chaque année, un Français sur cinq prend au moins une benzodiazépine ou une molécule apparentée. Ainsi, plus de 25 millions d'individus ont été exposés à ce type de traitement entre mi-2006 et mi-2011. Depuis 2002, la consommation des anxiolytiques a diminué avec un nombre d'utilisateurs constant, ce qui indique une réduction de la consommation individuelle. Les mesures mises en place il y a dix ans par les autorités sanitaires pour favoriser le bon usage de ces médicaments ont donc porté leurs fruits. Néanmoins, les chiffres de vente semblent repartis à la hausse depuis 2009.
En pratique, le traitement par les benzodiazépines est indispensable pour de nombreux malades, mais il entraîne un certain nombre de risques. Ces médicaments peuvent en particulier provoquer des troubles de la mémoire et du comportement, une altération de l'état de conscience et des fonctions psychomotrices. Ces effets sont accrus chez les personnes âgées. De plus, plusieurs études suggèrent un lien possible entre benzodiazépines et démences dont la maladie d'Alzheimer.
Le Point
|
|
|
|
|
|
|
|
Au cours des trois derniers siècles, de nombreux travaux ont montré que le cervelet joue un rôle majeur dans la coordination des mouvements. Pour pouvoir effectuer un mouvement, il faut que l’enchaînement et la durée des mouvements élémentaires de chaque segment corporel impliqué dans le geste puisse être coordonné de façon très précise. Il est actuellement clairement démontré que le cervelet assure cette fonction de contrôle temporel grâce à un circuit en boucle : il reçoit du cortex sensoriel et moteur des informations sur l’intention d’un mouvement puis transmet en retour les caractéristiques adéquates en terme de direction, de force et de durée au cortex moteur.
Mais cette importante fonction motrice a occulté un certain nombre d’autres fonctions qui n’ont été précisées que depuis 2 décennies à la suite de l’observation et de l’évaluation de patients présentant des lésions cérébelleuses ou des atteintes liées à des pathologies dégénératives. En effet, il existe des connexions cérébello-corticales avec des aires non motrices.
Le syndrome cognitivo-affectif cérébelleux a notamment été décrit par le Docteur Schmahmann en 1998. Il associe des troubles dysexécutifs, de la cognition spatiale, du langage et des changements de la personnalité. Il semblerait que ce soit surtout les régions postérieures du cervelet qui sont impliquées dans les fonctions cognitives. Toutefois, ces études ont porté sur un petit nombre de cas limitant les conclusions de celles-ci.
Dans Brain, une équipe italienne a publié les résultats d’une analyse qui a porté sur 156 des 223 cas observés entre 1997 et 2007 dans la Fondation du Laboratoire des Ataxies de Sainte Lucie. Soixante-dix-huit patients avaient des lésions focales et 78 une atrophie cérébelleuse. Les malades ont bénéficié d’évaluations neuropsychologiques classiques portant sur les différents domaines mais aussi d’explorations de la capacité de réaliser des séquences visuospatiales, de langage et d’images. Il apparaît que les patients ayant le plus de troubles cognitifs sont ceux dont l’atteinte siège dans le territoire de la PICA (artère cérébelleuse postérieure inférieure) ou touche les noyaux profonds. Ces auteurs concluent en précisant que le cervelet joue un rôle supramodal de séquençage des différentes actions cognitives.
Ce type de travail a un intérêt multiple. Il permet de mieux considérer les plaintes attentionnelles et comportementales rapportées par les patients mais aussi de sortir des représentations du fonctionnement cérébral datant d’un siècle attribuant des fonctions très compartimentées aux différentes zones cérébrales.
JIM
|
|
|
|
|
|
|
|
Une étude menée par Eric Vivier et Sophie Ugolini du Centre d'Immunologie de Marseille-Luminy (Inserm/CNRS/Université Aix Marseille) vient de mettre en évidence chez la souris un gène qui, muté, permet de stimuler les défenses immunitaires pour mieux lutter contre les tumeurs et les infections virales.
Alors que ce gène était connu pour activer une des premières lignes de défense de l'organisme (les cellules Natural Killer ou NK), son inactivation rend paradoxalement ces cellules NK hypersensibles aux signaux d'alerte envoyés par les cellules malades. Ces nouvelles données, essentielles pour comprendre le fonctionnement de ces cellules-clés de l'immunité, pourraient ouvrir une nouvelle voie thérapeutique contre les infections. Elles suggèrent aussi que la fonction des cellules NK doit être finement régulée pour garantir une réaction immunitaire optimale. Le détail de ces travaux est publié dans la revue Science datée du 20 janvier 2012.
Notre organisme subit les attaques d'une multitude de particules infectieuses (microbes, virus…) qui gravitent dans notre environnement quotidien. Pour lutter contre ces attaques, différentes cellules immunitaires sont activées : en premier lieu les cellules de l'immunité innée1, qui progressivement, laissent la place aux lymphocytes mémoires B et T de l'immunité dite adaptative. Les cellules Natural Killer (NK) font partie de cette première ligne de défense de l'organisme. Elles sont capables de tuer sélectivement les cellules tumorales ou infectées par des microbes tout en sécrétant des messagers chimiques, appelées cytokines, qui stimulent et orientent la réponse des lymphocytes B et T.
Suite à un vaste programme de génétique lancé il y a quelques années, les chercheurs sont parvenus à mettre en évidence un gène dont l'inactivation induit une augmentation de la fonction des cellules NK. Ce gène, appellé Ncr1, contribue à la fabrication du récepteur NKp46 présent à la surface des cellules NK. De façon surprenante, il est connu depuis plusieurs années comme activant les NK.
« Les cellules NK franchissent différentes étapes de développement avant de faire face à des microorganismes ou des cellules tumorales », explique Sophie Ugolini, co-responsable de cette publication. « Sans ce récepteur, les cellules NK sont plus réactives et donc plus efficaces lorsqu'elles rencontrent des agresseurs de l'organisme. », Pour tester le potentiel thérapeutique de leur découverte, les chercheurs ont bloqué le récepteur NKp46 à l'aide d'un médicament (en l'occurrence un anticorps monoclonal). Comme dans leurs expériences de génétique, ce traitement qui bloque NKp46 rend les cellules NK beaucoup plus efficaces.
« Désormais notre objectif est d'explorer plus avant les mécanismes biologiques sous jacents et de travailler en collaboration avec l'industrie biopharmaceutique et l'hôpital pour évaluer le potentiel médical de ce nouveau type de traitement, notamment pour les patients dont le système immunitaire est déjà très affaibli comme les malades atteints d'un déficit immunitaire et les patients ayant subi une greffe de moelle ou une chimiothérapie anticancéreuse », conclut Eric Vivier.
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
A l’occasion des Journées Annuelles d’Ethique, le Comité Consultatif National d’Ethique (CCNE) a interrogé les Français sur leur perception de la science et de son rôle au sein de la société. D’après une étude BVA, les sentiments des Français sont partagés : 53 % d’entre eux se sentent mal informés et la grande majorité souhaite imposer des limites à la science.
- Les Français plébiscitent la recherche
La recherche scientifique est plébiscitée par les Français, notamment bien entendu en santé avec le traitement des cancers ou le fonctionnement de l’organisme. Dans l’absolu, la recherche génétique ou la compréhension du cerveau sont plébiscitées par 84 % et 90 % des personnes interrogées. Mais lorsqu’on aborde les applications scientifiques concrètes, les avis sont plus partagés : les recherches sur la biométrie ou le contrôle d’identité sont accueillies de manière favorable par 2 Français sur 3 ; 67 % d’entre eux se prononcent en faveur de la recherche sur les embryons mais au-delà du progrès de la science, certaines pratiques sont jugées dangereuses et/ou contraires à l’éthique : seuls 27 % sont favorables à la modification du patrimoine génétique ou 14 % au clonage.
- Les Français en quête d’information
Favorable à la recherche scientifique, les Français sont méfiants à l’égard de ses applications. L’une des raisons pourrait être le manque de transparence des recherches, 53 % ne se sentent pas assez informés sur les enjeux éthiques des avancées de la science et seuls 15 % se disent "tout à fait informés" sur ces sujets. Une perception qui alimente le sentiment de confiscation du sujet par les "experts". Il en résulte une volonté d’être mieux informé et d’imposer des limites à la science pour 7 Français sur 10.
Mais lorsqu’on leur demande quels sont les acteurs les plus légitimes pour imposer ces limites, ils sont un grand nombre à citer les scientifiques (49 %) ou des comités réunissant religieux, scientifiques, intellectuels et élus (44 %). Un résultat que le Comité Consultatif national d’éthique juge conforter son rôle. "En donnant des clés de compréhension pour saisir les enjeux liés aux progrès des sciences de la vie et de la santé, le CCNE doit permettre aux Français de se forger une opinion claire sur le rôle et les limites à donner aux sciences de la vie et de la santé" précise le communiqué qui annonce également, dans cette optique, les journées annuelles d’éthique autour du thème "Qui est normal ?".
Doctissimo
|
|
|
|
|
|
|
|
Un nouveau projet de l'UE visant à apporter des systèmes de gestion de trafic propre dans les villes européennes vient d'être lancé. Le projet triennal, intitulé THE ISSUE («Traffic- Health- Environment. Intelligent Solutions Sustaining Urban Economies»), rassemble des regroupements de recherche de cinq régions européennes, les Midlands au Royaume-Uni, la région du Molise en Italie, la région Midi-Pyrénées et l'Aquitaine en France et la région de la Masovie en Pologne.
Avec un budget de 2,7 millions dans le cadre du thème des «Régions de la connaissance» du septième programme-cadre de l'UE (7e PC), les partenaires du projet soutiendront des scientifiques, ingénieurs et agences de développement de différentes régions pour collaborer et développer de meilleures méthodes pour soulager les embouteillages et améliorer l'environnement urbain.
Les systèmes de gestion du trafic utilisent les technologies de l'information et de la communication (TIC) appliquées aux infrastructures de transport et véhicules pour améliorer la vie sur les routes en faveur de tous les usagers, en termes de sécurité, de fiabilité et même de productivité. Les systèmes de gestion du trafic abordent de plus en plus le besoin de gérer les facteurs environnementaux.
L'objectif final est d'influencer les futures politiques pour que les systèmes de gestion du trafic avantageux pour la sécurité et la santé publique soient mis en place. Les zones à problème de la gestion du trafic sont les impacts du transport sur la mobilité urbaine, la durabilité et l'écologie du système des transports, et la santé, la sécurité des citoyens.
Dans le cadre du projet, diverses technologies et applications de recherche seront utilisées pour aborder ces questions, dont notamment l'intégration de solutions informatiques intelligentes et de données de navigation par satellite en temps réel dans les systèmes de gestion du trafic par exemple. Deux autres approches pratiques sont les mesures dans l'espace et in-situ pour contribuer à atténuer les risques de pollution aérienne induite par le trafic sur la santé des citoyens, et les démonstrations technologiques et essais pré-opérationnels en temps réel d'un véhicule à pile à hydrogène dans un environnement urbain.
Le projet est dirigé par des chercheurs de l'université de Leicester et du Conseil de la ville de Leicester au Royaume-Uni. Rory Palmer, conseiller municipal de Leicester, commente le projet : «Faire de Leicester une ville à faible émission de carbone fait partie de nos principaux objectifs et ce genre de recherche sera essentiel pour aborder les questions associées aux embouteillages et à la qualité de l'air à l'avenir. je suis fier que le conseil municipal contribue à réaliser ces travaux.»
Cordis
|
|
|
|
|
|
|
|
Une petite voiture électrique pliable baptisée Hiriko (« Urbain » en basque) et conçue par un groupe de sept entreprises au Pays Basque espagnol sera opérationnelle en 2013 dans plusieurs villes européennes. Le modèle a été présenté le 24 janvier au président de la Commission européenne et le consortium est en pourparlers pour lancer une petite flotte d’une centaine de voitures à Bruxelles.
Le moteur de l’Hiriko est placé dans les roues et l’habitacle, conçu pour deux personnes, peut coulisser vers le haut pour que la voiture prenne moins de place et se gare facilement. Elle dispose d’une autonomie de 120 km en ville et sa vitesse est électroniquement bridée en fonction des limitations en vigueur dans les centres urbains.
Chacune des entreprises du consortium est chargée de produire un module et l’idée novatrice est de créer des usines d’assemblage dans les villes conquises par la petite voiture. Plusieurs municipalités sont déjà intéressées (Malmö en Suède, Berlin, Barcelone, Vitoria-Gasteiz, deuxième ville du Pays Basque espagnol, San Francisco, Hong-Kong, Quito et les îles Galápagos), et des pourparlers sont en cours avec Paris, Londres, Amsterdam, Genève, Boston, Dubaï, Abu Dhabi et depuis peu Bruxelles.
Hiriko est principalement destinée à la mobilité urbaine, à l’image des vélos en libre-service de type Vélib’, mais la petite voiture pliable pourra aussi être achetée par des particuliers. Elle sera commercialisée au prix de 12.500 euros et la batterie sera louée, pour tenir compte de l’évolution rapide de cette technologie.
CCFA
|
|
|
|
|
|
|
|
La ville de Nice a innauguré, le 12 janvier dernier, son dispositif de stationnement intelligent qui se fonde sur l'installation d'un réseau de capteurs communicants sur les trottoirs, associés à des horodateurs de nouvelle génération, autorisant notamment le paiement sans contact.
A partir de l'application GPS de son téléphone portable (application EzPark), l'usager sera orienté vers la place de stationnement libre la plus proche, en centre-ville, ou vers un parc en ouvrage. Par ailleurs, d'autres services seront également disponibles sur l'application : l'état du trafic, les horaires de passage des transports publics, la présence des taxis en station, des données sur la pollution et la météo. L'usager pourra choisir en connaissance de cause et ne pas être totalement focalisé sur l'automobile.
Le réseau de capteurs informera également en temps réel les services municipaux sur les véhicules en dépassement de temps de stationnement, ce qui facilitera les interventions ciblées des agents. Les formules et les modes de paiement vont se diversifier aussi. Avec les nouveaux horodateurs, les Niçois pourront payer leur ticket avec de la monnaie, une carte de crédit ou via leur smartphone, en mode sans contact. En outre, de nouvelles fonctionnalités de stationnement seront proposées, comme le règlement à distance d'un éventuel complément de temps de stationnement pour éviter un PV ou encore la prise en charge partielle ou complète du coût de stationnement, grâce à l'établissement d'un lien direct entre le ticket de parking et l'achat dans un commerce.
Aujourd'hui, la durée moyenne de recherche d'une place de stationnement au centre de Nice qui est de 30 minutes, génère 25 % de trafic supplémentaire. Par ailleurs, même aux heures de pointe, 8 % des emplacements de parkings ne sont pas utilisés. Le nouveau système permettra d'optimiser le stationnement tout en faisant gagner du temps aux usagers en abaissant la durée du temps de recherche. Il devrait provoquer une baisse de trafic, et par effet induit, une réduction de la pollution et du taux de nuisances sonores.
Une première expérimentation va être lancée sur une centaine de places sur un des grands boulevards de la ville. Elle s'étendra en juin à l'ensemble du quartier. L'objectif étant de couvrir les 8.500 places de stationnement payant de la ville, d'ici la fin du premier semestre 2014. L'investissement s'élève à 13 millions d'euros. Mais la ville a profité de l'opportunité de devoir remplacer ses horodateurs devenus archaïques (8 millions) pour se doter de ce système innovant. Développé par la Semiacs, une société d'économie mixte détenue à 80 % par la ville, et par sa filiale, la société SUDE, le système, qui est breveté, devrait rapporter des royalties à chaque mise en place par une autre collectivité. La ville espagnole de Tarragone a déjà fait part de son intérêt.
L'intérêt de ce système, qui a obtenu le prix du "meilleur projet innovant ville intelligente 2011" lors du récent Smart City Expo World Congress organisé à Barcelone fin 2011 n'est pas uniquement fonctionnel et technologique. Il s'insère aussi dans un plan général intégrant l'ensemble des problématiques de circulation.
Localtis
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|