|
|
|
|
|
NUMERO 633 |
|
|
|
|
|
|
|
Edition du 05 Janvier 2012
|
|
|
|
|
Edito
L'ordinateur quantique va révolutionner l'informatique
En 1965, Gordon Moore établit sa fameuse "loi" qui prévoyait, en électronique, un doublement du nombre de composants élémentaires -en l'occurrence de transistors- par puce tous les deux ans. En 1971, le premier microprocesseur comptait environ 2000 transistors ; 40 ans plus tard, les puces les plus élaborées intègrent deux milliards de transistors ! En 40 ans, la puissance de calcul d'une puce a donc été multipliée par plus d'un million ! Une telle avancée technologique en si peu de temps est tout simplement sans précédent dans l'histoire de l'Humanité et nous a fait basculer en seulement deux générations, avec la généralisation de l'informatique personnelle puis de l'Internet, dans la société de l'information.
Cette plongée vertigineuse vers l'infiniment petit se poursuit et les processeurs Ivy Bridge 22 nm d’Intel sont annoncés pour le printemps 2012, mais les ingénieurs d'Intel préparent déjà les prochaines générations de puces gravées à 14 nanomètres, vers 2014 puis à 10 nanomètres (soit environ 40 atomes), vers 2017. En 2007, Gordon Moore annonça que sa loi de doublement du nombre de transistors dans une puce tous les deux ans cesserait de s'appliquer à l'horizon 2020 car la miniaturisation électronique se heurterait alors aux lois de la physique. En effet, en dessous de 10 nanomètres, les transistors ne comportent plus que quelques atomes et leur comportement se met à obéir aux lois étranges de la physique quantique.
Mais aujourd'hui, chercheurs et ingénieurs, au lieu de considérer ces lois comme un obstacle infranchissable, essayent de les utiliser à leur profit pour faire entrer l'informatique dans une nouvelle ère.
C'est ainsi que, depuis 2005, les physiciens et ingénieurs du monde entier cherchent à concevoir des nanocomposants à base de nanotubes de carbone pouvant se substituer aux actuels transistors et circuits imprimés. Mais plus fondamentalement encore, les chercheurs tentent d'utiliser les lois quantiques pour s'affranchir du mode de calcul binaire sur lequel repose l'informatique depuis son invention, dans les années 1940.
Il y a quelques semaines, une équipe internationale de chercheurs de l'Université de Sherbrooke (Canada) a mis au point un dispositif semi-conducteur pouvant être utilisé par un ordinateur quantique. Ce dispositif repose sur une double boîte quantique emprisonnant deux électrons, dont l'orientation des spins — une propriété magnétique fondamentale — peut être contrôlée par un microaimant.
Pour réaliser un ordinateur quantique, tout le défi consiste à effectuer les calculs avant que cette superposition d'états soit perdue et ne devienne "décohérente" en interagissant avec la matière environnante. Pour garder pendant un temps suffisant l'état de cohérence quantique, les chercheurs jouent sur deux tableaux à la fois : d'une part, ils essayent de diminuer d'un facteur 100 le temps nécessaire pour manipuler le spin d'un électron en modifiant la géométrie des microaimants. D'autre part, les physiciens cherchent à augmenter le temps de cohérence en utilisant de nouveaux matériaux très purs.
Il y a un mois, une autre équipe de recherche a montré qu’il était possible de produire des états quantiques d'intrication avec deux diamants macroscopiques distants de 15 cm. Les expériences réalisées ont montré qu'il y avait bien intrication des photons dans les deux diamants. Mais le plus intéressant dans cette découverte, c'est que cet état quantique a été obtenu à température ambiante, grâce aux propriétés physiques remarquables du diamant.
Enfin, il y a quelques semaines, des physiciens de l'Institut national américain des normes et de la technologie (NIST) sont parvenus pour la première fois à intriquer deux ions (atomes porteurs de charges électriques) en utilisant des micro-ondes à la place des faisceaux lasers habituels, fragiles et encombrants. Dietrich Leibfried qui a dirigé ces recherches, précise "qu'il est concevable que des ordinateurs quantiques de taille modeste puissent ressembler à un téléphone intelligent combiné à un objet semblable à un stylo pointeur laser, alors que des machines sophistiquées pourraient avoir une taille comparable à un PC de bureau».
En matière de composants quantiques les recherches vont également bon train et visent à remplacer, d'ici la fin de cette décennie, le transistor classique « à effet de champ» qui requiert une tension électrique relativement importante pour activer le transistor.
La technologie tunnel-FET en cours de mise au point utilise de manière remarquable un principe quantique étrange : "l'effet tunnel" qui permet à certains électrons très peu énergétiques de déclencher l'activation d'un transistor, ce qui viole la physique classique. Jusqu'à présent, cet effet quantique, bien connu des physiciens, venait perturber le fonctionnement des transistors mais, grâce aux progrès réalisés dans le domaine des matériaux, on envisage à présent de substituer purement et simplement le transistor à effet tunnel au transistor classique à effet de champ.
Cette rupture technologique devrait permettre de concevoir des puces bien plus puissantes consommant 100 fois moins d'énergie qu'aujourd'hui. Il serait alors possible de disposer d'appareils numériques d'une puissance inconcevable à l'heure actuelle et d'une autonomie de plusieurs semaines, voire plusieurs mois ! Mais la véritable révolution viendra de la puissance de calcul phénoménale des futurs superordinateurs quantiques. En effet, dans un ordinateur classique, la valeur d'un bit est soit 1, soit 0. En revanche, un "Qbit" peut prendre simultanément les deux valeurs, ce qui permet d'effectuer des calculs en parallèle.
Les futurs ordinateurs quantiques auront une telle puissance de calcul qu'ils pourront réaliser en quelques secondes des simulations numériques qui demandent aujourd'hui des semaines ou des mois de travail aux meilleurs superordinateurs. Dans le domaine de la biologie par exemple, ces machines quantiques pourront simuler le comportement des interactions moléculaires ou cellulaires les plus complexes. Il deviendra alors possible de concevoir très rapidement des molécules thérapeutiques et des nouveaux médicaments.
Dans le domaine géophysique et climatique, des simulations qui prennent aujourd'hui des semaines se feront également en quelques secondes, ce qui fera franchir une nouvelle étape décisive à la prévision météorologique et rendra peut-être enfin possible la prévision fiable des tremblements de terre. Enfin, plus concrètement, cette électronique et cette informatique quantiques se dissémineront dans tous nos objets quotidiens, qui deviendront non seulement capables d'interagir entre eux, mais surtout de s'adapter automatiquement à nos besoins et à notre état. On peut ainsi imaginer que chacun de nos vêtements intégrera une puissance informatique suffisante pour contrôler en permanence nos paramètres biologiques et nous alerter en cas d'anomalies ou de problèmes de santé.
Près d'un siècle après sa formulation théorique dans les années 1920, la physique quantique, longtemps considérée comme une bizarrerie totalement abstraite, est donc en train de provoquer une révolution technologique majeure. Cette rupture montre à quel point il est important de ne pas tout miser sur la recherche appliquée, à court terme, et de savoir investir à très long terme dans des projets et programmes de recherche fondamentaux, sans retombées immédiates. Si l'Europe veut continuer à exister comme acteur économique et politique mondial, il est vital, face aux nouveaux géants qui émergent -Chine, Inde, Brésil-, qu'elle soit capable, en cette période de crise financière et de restrictions budgétaires, de préparer l'avenir en gardant une recherche fondamentale de premier ordre.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le temps passé à répondre aux mails s'accroît au fur et à mesure. Une charte a été créée pour tenter de résoudre ce problème, avec de nombreux conseils.
Beaucoup d’études arrivent au même constat : nous passons beaucoup trop de temps à répondre aux mails, ce qui, souvent, nuit à notre productivité. Le temps passé à répondre aux courriels dépasse le temps utilisé pour en envoyer un. Une charte a été créée pour tenter de résoudre ce problème, et en voici les dix points :
1) Respecter le temps du destinataire est la règle fondamentale. C’est à l’expéditeur qu’il incombe la responsabilité de minimiser le temps de traitement de l’email, même si cela prend plus de temps à l’envoi.
2) La lenteur et la brièveté ne sont pas une insulte. Vu le grand nombre d’emails auquel nous devons faire face, les réponses ne se doivent pas d’être immédiates et exhaustives en répondant à toutes vos questions. Ne le prenez pas personnellement, mais il y a une vie en dehors des emails.
3) La clarté est votre plus grande amie. Le champ sujet doit clairement identifier le thème, et peut être même inclure une catégorie de statut, comme [Info] ou [Priorité basse]. Utilisez un style concis, sans fioritures. Si le mail doit être plus long que cinq phrases, la première doit fournir la raison d’être de celui-ci. Evitez les polices de caractères insolites et les couleurs.
4) Rejetez les questions ouvertes. Envoyer quatre longs paragraphes au style ampoulé suivis de « Qu’en pensez-vous ? », c’est beaucoup demander à votre destinataire. Même les questions bien intentionnées, mais ouvertes, comme « Comment puis-je aider ? », ne sont souvent pas d’un grand secours. Mieux vaut utiliser des questions simplifiées et faciles à répondre, comme : « Je pourrais aider au mieux en a) appelant b) y allant c) restant en dehors de tout ça ?)
5) Enlevez les copies en surplus. Pour chaque destinataire que vous ajoutez, vous multipliez dramatiquement le temps de réponse global. Lorsqu’il y a plusieurs destinataires, n’utilisez pas « répondre à tous » en permanence, par défaut. Peut-être que vous n’avez besoin de mettre en copie que deux personnes de la liste. Voire personne…
6) Evitez les fils trop longs. Certains emails ont besoin du contexte pour être compris. Ce qui implique d’inclure le fil de messages auquel vous répondez. Mais il est rare que le fil en question ait besoin de dépasser les 3 précédents mails. Avant d’envoyer, coupez ce qui n’est pas pertinent. Ou, à la place, réfléchissez à passer un coup de fil à la place.
7) Les pièces jointes, c’est mal. N’utilisez pas de logos ou signatures qui apparaissent comme pièces jointes. Cela fait perdre du temps à comprendre s’il y a quelque chose à ouvrir. Et c’est encore pire si vous envoyez un texte en pièce jointe qui aurait pu être inclus dans le corps du mail.
8) Si votre courriel peut être exprimé en quelques mots, mettez-les juste dans le champ « sujet », suivi de FDM (pour Fin Du Message). Ceci évitera au destinataire d’ouvrir le mail. Et finir le message par « Pas besoin de répondre » (ou PBDR) se révèlera un énorme acte de générosité pour votre correspondant.
9) Vous n’avez pas besoin de répondre à tous les emails, surtout ceux qui sont déjà des réponses claires. Un mail disant « Merci de ton avis, je suis pour » ne demande pas de réponse. Celle-ci vous coûtera juste 30 secondes de plus.
10) Et, enfin, déconnectez-vous. Si nous passons moins de temps à envoyer des emails, nous recevrons moins d’emails ! Aménagez-vous des plages de temps où vous vous interdisez l’accès à votre messagerie, et même parfois des week-end entiers. Utilisez des réponses automatiques pour que vos contacts soient alertés de ces « congés d’emails », et profitez de la vie !
Atlantico
|
|
|
|
|
|
|
|
La PME aixoise Inside Secure, spécialisée dans les puces et systèmes sans contact, a signé un contrat avec Intel, le numéro un mondial des semiconducteurs. Inside Secure va fournir au groupe américain des solutions NFC, c'est-à-dire des puces sans contact avec leurs logiciels, permettant à des smartphones, tablettes ou ordinateurs de communiquer entre eux lorsqu'ils sont placés à quelques centimètres l'un de l'autre. Le contrat est signé pour cinq ans et comporte le versement d'une redevance initiale, des redevances de licences et le paiement de frais de développement pour de nouvelles générations de produits qu'Intel pourra intégrer directement dans le design de ses puces.
Le contrat prévoit en outre qu'en cas de changement de contrôle de la PME aixoise, Intel pourra faire une offre d'embauche à l'équipe d'ingénieurs dédiée à ce projet.« Intel pense que la technologie du sans contact va être au centre de ses développements », commente Rémy de Tonnac, le président d'Inside Secure. Pour ce dernier, Intel compte sur cette technologie pour refaire son retard dans l'Internet mobile, les téléphones intelligents et les tablettes, un secteur en très fort développement.
Le sans-contact, dont on nous dit depuis une dizaine d'années qu'il va révolutionner nos habitudes, est désormais en phase de décollage. Alors qu'il s'est vendu moins d'un million de puces NFC en 2010 dans le monde, il s'en sera écoulé 50 millions en 2011 dont plus de 10 millions fabriquées par Inside Secure. « Les NFC représentent 3 % du marché. On vise 50 à 60 % », précise Rémy de Tonnac. Le groupe espère que son activité progressera de 30 % à 35 % par an, dans le sillage du marché des puces sans contact.
Les fabricants de téléphones mobiles sont de plus en plus nombreux à intégrer le sans-contact pour permettre à leurs détenteurs de payer avec leur mobile, de télécharger des coupons de réduction ou des publicités en s'approchant d'une affiche ou d'une borne. Inside Secure fournit déjà les fabricants canadien RIM et chinois ZTE.
Le Figaro
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Sur le stand Honda du salon automobile de Tokyo, Asimo sert un verre au président du groupe nippon, Takanobu Ito. Pour le remercier, M. Ito l'introduit auprès de journalistes médusés : «Je voudrais vous présenter Asimo, notre nouveau robot humanoïde, le premier au monde doté de technologies lui conférant une réelle autonomie de comportement.»
Un robot qui joue les barmen, cela produit son petit effet. Mais Asimo est capable de bien d'autres prouesses. Il nous l'a prouvé durant notre visite du laboratoire Honda sis à Wako, non loin de Tokyo.
Quand, en 1986, la marque décide d'entamer plusieurs programmes de recherches fondamentales dans le domaine de la robotique, il s'agit de concevoir des machines susceptibles de suppléer l'homme dans des tâches pénibles ou dangereuses. Mais Honda imagine bientôt d'autres débouchés, comme des assistants à la marche à destination de personnes âgées. Aujourd'hui, ces travaux servent également à améliorer les performances des automobiles et des motos Honda. Ainsi, les capteurs de grande sensibilité qui ont été mis au point pour assurer l'autonomie des robots sont utilisés pour les aides au pilotage des motos de Grand Prix.
Honda peut donc tirer différents profits de l'intelligence artificielle de ses robots. Et force est de constater que celle de la dernière évolution du petit Asimo laisse pantois. Asimo - les Japonais prononcent «ashimo» - est l'acronyme d'Advanced Step in Innovative Mobility, en français «étape avancée vers un moyen de mobilité innovant».
Satoshi Shigemi, l'ingénieur en chef en charge de sa dernière évolution, est fier de nous présenter les progrès réalisés par son rejeton : «Né simple automate, le nouvel Asimo franchit aujourd'hui une étape cruciale en devenant une machine autonome capable de déterminer seule le comportement à adopter face à un imprévu.» Ainsi peut-il cohabiter avec des êtres humains. Son autonomie lui permet de décider de changer de trajectoire afin d'éviter une collision avec une autre personne. Dans certaines circonstances, Asimo peut même se montrer supérieur à un être humain.
Dans le rôle du barman, Asimo est franchement irrésistible. Face à trois personnes annonçant simultanément leur commande, le petit robot parvient à tout déchiffrer, quand un homme réclamerait à ses clients de réitérer leur demande en s'exprimant chacun à leur tour. Asimo nous épate encore lorsque, comme il l'a fait pour son président, il attrape une bouteille Thermos, en dévisse le bouchon et remplit un gobelet en carton, sans verser une goutte de liquide à côté. Cette dextérité implique des avancées technologiques majeures.
Pour qu'il puisse estimer précisément la position, le poids et la résistance de l'objet à saisir, les ingénieurs ont dû corréler son regard artificiel constitué de caméras avec les six capteurs intégrés dans chacun de ses doigts. Asimo peut vous servir autant de verres de saké que vous le désirez. Et, si vous en abusiez au point d'éprouver quelques difficultés pour vous exprimer, sachez que le petit robot parle aussi le langage des signes…
- Un nouveau record du 100 mètres
Un peu abasourdis par la démonstration, nous ne sommes pourtant pas au bout de nos surprises. Asimo n'a pas fini son show. Sur une scène longue d'une quinzaine de mètres, le voilà qui se met à courir. Du haut de son 1,30 m, il aligne des foulées de 65 cm et se déplace à 9 km/h ! À sa prochaine évolution, Usain Bolt pourra craindre pour son record du monde du 100 mètres. Fier de l'effet produit, l'insolent petit robot enchaîne en sautant de joie, d'abord sur ses deux pieds, puis sur un seul. Enfin, il se déplace latéralement en allant à cloche-pied. Les journalistes se pincent. Tous ne sont pas capables d'en faire autant…
Mais, en bon showman, Asimo a gardé sa meilleure attraction pour la fin. Un assistant humain arrive avec un ballon de foot. Il le dépose sur la scène. Comme un joueur prêt à tirer un penalty, le petit robot vient se positionner dans l'axe, il recule, arme son tir et… shoote ! Le ballon est projeté loin devant. Puissance, précision du geste, tout y est. Alors, nous posons la question au président de Honda : à quand une équipe de foot constituée de onze Asimo ?
Le Figaro
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l'université d'Edimbourg a mis au point des tubes microscopiques ayant la capacité d'absorber le dioxyde de carbone présent dans l'atmosphère. Une unité d'un mètre carré pourrait ainsi capter la même quantité de CO2 que dix arbres de taille moyenne. "Le matériau a été spécialement conçu à l'échelle nanométrique pour être très poreux, afin d'adsorber autant de dioxyde de carbone que possible (...) Un point critique est de régler la chimie des tubes pour qu'ils n'adsorbent que le gaz carbonique de l'air, sans extraire également la vapeur d'eau, par exemple", explique le professeur Murray Campbell, directeur du projet à l'université d'Edimbourg.
Lorsque les tubes seront saturés en gaz, ils pourront être régénérés par une courte impulsion de chaleur provenant, par exemple, d'une source d'énergie renouvelable comme une cellule solaire.
Le gaz libéré sera ensuite concentré et stocké dans de petits réservoirs. Les réservoirs pleins seraient alors transportés vers un site spécial où le gaz carbonique est emmagasiné avant d'être stocké en profondeur via un système de capture et de stockage…"D'une certaine façon, l'unité se comporte comme un arbre artificiel", précise Murray Campbell, ajoutant que "l'avantage majeur est bien entendu de pouvoir l'utiliser dans les zones urbaines où il est impossible de planter des arbres".
L'équipe de chercheurs souhaite désormais des versions plus grandes de ces unités et "présenter au marché une unité brevetable, dans les cinq années qui viennent".
Actu Environnement
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs viennent de mettre au point une nouvelle méthode pour atteindre les températures les plus froides jamais rencontrées naturellement sur terre.
Cette nouvelle approche développée par des physiciens de l'université d'Harvard et présentée pour la première fois dans la revue scientifique Nature, utilise des quadrillages de lasers, autrement appelés «treillis optiques», dans lesquels les chercheurs sont parvenus à enlever les atomes les plus «chauds» et donc à ne garder que les plus «froids». La BBC News explique que cette méthode de sélection est idéale pour créer les systèmes de mémoire des futurs ordinateurs quantiques.
Les limites pour les basses températures ont été de nombreuses fois repoussées depuis quelques années note le quotidien britannique, et le nouveau record réalisé grâce aux «treillis optiques» est maintenant de l’ordre du nano kelvin, ce qui correspond à 0,0000000001 Kelvin, la limite infranchissable étant le «zéro absolu» (le zéro de Kelvin qui vaut -273,15 degrés Celsius), la température théorique la plus basse qu’on puisse rencontrer dans l’univers.
A titre de comparaison, la température du corps humain est de 310 Kelvins, l’eau gèle à 217K, la température la plus basse jamais enregistrée sur terre est de 184K (soit -89,2C, en 1983 dans l'Antarctique), et celle de l’espace profond est en moyenne de 2,7K.
Ces «treillis optiques» constituent une structure idéale pour approcher au plus près le «zéro absolu». Leur forme, qui rappelle celle des boites d’œufs avec une alternance de trous et de pics, permet aux atomes de rester dans les creux, là où l’énergie est la plus faible. Mais à mesure où l’on ajoute de nouveaux atomes dans ces trous, la structure concentre trop d’énergie et devient instable, au point où il devient impossible d’en mettre davantage.
Pour contourner ce problème, les chercheurs de l’université d’Harvard ont mis au point une technique appelée «Orbital exchange blockade», permettant de créer de la matière «super froide» selon le site d’information msnbc.com. Les chercheurs sélectionnent dans les trous du treillis des atomes qui vont absorber l’énergie et donc la chaleur des autres. Quand de nouveaux atomes sont ajoutés, la chaleur supplémentaire est ainsi captée par ces atomes qui concentrent de plus en plus d’énergie. Ils sont ensuite enlevés des treillis et seuls les plus froids restent, ce qui fait que la température générale du treillis optique baisse considérablement.
Gretchen Campbell, du centre de calcul américain Nist, explique à la BBC que cette découverte va accélérer la création de nouveaux systèmes informatiques superpuissants et surtout ultra-rapides : les ordinateurs quantiques, qui utiliseront les lois de l'infiniment petit, telles qu'elles sont décrites par la mécanique quantique.
Mais comme tout ordinateur, ils auront besoin d’un système de mémorisation. Et la matière super froide créée avec les treillis optiques, capable d’une certaine manière de «réfrigérer» l’information pour reprendre l'expression de msnbc.com, en est maintenant le candidat idéal.
Slate
|
|
|
|
|
|
|
|
C'est une pile originale que les visiteurs du salon Eco Products 2011, qui s’est déroulé à Tokyo du 15 au 17 décembre, ont pu découvrir sur le stand de Sony. Son alimentation se résume à du papier dissout dans une solution enzymatique.
En réalité il s’agit d’une implémentation de la bio pile au glucose, un concept que Sony développe de longue date. Elle produit de l’électricité grâce à l’oxygène puisé dans l’air et au glucose contenu dans un milieu organique. Chacune des deux espèces est capturée sur une électrode par une enzyme spécifique. Le glucose est une source d’hydrogène qui, par échange électrochimique avec l’oxygène, produit un courant électrique et un dégagement d’eau. Ce n’est ni plus ni moins que le principe d’une pile à hydrogène.
La nouveauté, c’est ici la source du glucose. Le papier est constitué essentiellement de cellulose, un polymère du glucose. Pour casser cette chaîne moléculaire, la solution comporte une enzyme appelée cellulase. Une fois trempé, le papier se décompose en glucose. Injecté dans la pile, le liquide sucré initie alors la production électrique.
Sony n’a pas dévoilé les performances de cette bio pile au papier. Il serait possible en théorie de tirer 18 Wh d’électricité à partir d’une feuille A4, soit l’équivalent de six piles AA. Mais entre la théorie et la pratique, il reste un grand travail d’optimisation et de miniaturisation du système. En 2010, la firme japonaise avait annoncé une production de 10 mW/cm² pour sa batterie au glucose.
Industrie & Technologies
|
|
|
|
|
|
|
|
Le ciment ne représente en moyenne que 13 % de la composition du béton. Pourtant, son impact environnemental est très important. Les cimentiers travaillent à le réduire, notamment en proposant de nouvelles recettes. Le ciment est issu d'un process de fabrication énergivore et émetteur de CO2. Il consiste, pour résumer, à broyer des morceaux de calcaire et d'argile, de manière à obtenir une farine qui, passée dans un four dont la flamme monte à 2000°C, donne ce que l'on nomme du clinker. En y ajoutant un peu de gypse, on obtient le ciment « classique » dit Portland ou, pour les initiés, Cem I.
Une cimenterie coûte au minimum 300 millions d'euros (son prix peut atteindre le milliard) et est installée à coté de carrières de calcaires avec l'objectif de les exploiter conjointement durant près d'un siècle. Pour les industriels, la recherche d'une alternative au procédé utilisé depuis des décennies n'est donc pas, à ce jour, une priorité. Lafarge, leader mondial sur le marché du ciment, a bien chargé un groupe de travail de réfléchir à un moyen d'éviter une montée en température à 2000°C. Chez Holcim, numéro 2 mondial, on teste des procédés, permettant de se contenter d'une température de 700°C. Mais, il s'agit dans les deux cas de trouver d'autres moyens d'utiliser les infrastructures existantes. Et, pour l'heure, les équipes de recherche et développement se concentrent sur l'intégration de nouveaux composés, en lieu et place du clinker.
- Proportion de Clinker rabaissé
Depuis plusieurs années, les cimentiers développent des ciments substituant une part de clinker par des résidus d'aciéries, dits laitiers de hauts fourneaux, ou des déchets de centrales thermiques, communément appelés cendres volantes. Dans le jargon des cimentiers, les produits composés obtenus sont, selon les proportions de laitiers et de cendres, des Cem II, III et V. Lafarge, premier producteur français, s'est fixé l'objectif de faire passer la part de ces ciments composés, regroupés par l'industriel sous l'appellation «ciments à taux réduit de CO2 », de moins d'un quart de sa production française en 2011, à près de la moitié sur l'année 2012. Chez le suisse Holcim, les ciments composés à plus de 35 % de laitiers et de cendres volantes portent l'étiquette « Cimcool » et, représentent déjà, selon Roberto Huet, Directeur commercial de Holcim Ciments France, un tiers des produits fabriqués par l'industriel dans l'hexagone.
"Betie", un outil de calcul des impacts environnementaux du béton, développé par « PricewaterhouseCoopers Ecobilan » et mis en ligne, début novembre, sur le site du Syndicat national du béton prêt à l'emploi permet de mesurer l'effet de ces ciments composés. L'élaboration d'un m³ de béton contenant du ciment de type Cem 5, appelé «à taux réduit de CO2» chez Lafarge ou «Cimcool» chez Holcim, demande un tiers d'énergie primaire de moins que le même béton fabriqué avec du ciment standard. "Betie" indique que sa fabrication nécessite, non pas 2207 Méga joules d'énergie primaire et, ne dégage pas 295 kg équivalent CO2, comme pour un béton avec du ciment Cem1, mais seulement 1577 MJ et 184 kg eq CO2.
A l'échelle globale d'un projet, le bénéfice environnemental du ciment composé se fait moins sentir, mais n'est pas négligeable. D'après le groupe d'ingénierie Elioth qui a réalisé des simulations sur le futur stade du Havre, l'utilisation d'un béton dont le ciment contient en partie du laitier et des cendres aura permis de réduire de 3 % le dégagement de CO2 de la construction et de l'exploitation de l'arène de 25 000 places.
- Combustibles alternatifs augmentés
Autre levier sur lequel les cimentiers comptent jouer pour donner à leurs produits des allures de combattants contre le réchauffement climatique : les combustibles utilisés dans les fours. Huiles usées, solvants non chlorés, pneumatiques usés, résidus de broyage automobile, farines animales, déchets de l'industrie forestière, boues de station d'épuration séchées... les combustibles permettant de maintenir la flamme des cimenteries sont nombreux. « En 2010, le taux de combustibles de substitution (autres que le fuel ou charbon), hors Inde et Kazakhstan, est de 15,5 % contre 13,6 % en 2009 » affirme l'entreprise Vicat qui fabrique du ciment depuis plus de 150 ans. D' après Patrick Franchomme, Directeur Exploitation chez Holcim pour la France et la Belgique, le groupe utilise, pour ses cimenteries françaises près de 50 % de combustibles alternatifs.
- Imagination stimulée par le prix de la tonne CO2
Les cimentiers, en réduisant les dégagements de CO2 liés à leur activité, peuvent revendre des « droits à émissions » sur le marché du carbone. Le prix de la tonne de C02 échangée est donc observé de près par ces derniers. Il y a peu à 15 euros, aujourd'hui autour de 10 euros, les industriels ont du mal à prévoir son évolution. Une chose est sûre, une augmentation continue de son prix est indispensable pour stimuler l'imagination des cimentiers dans la recherche de réduction des impacts environnementaux.
Le Moniteur
|
|
|
|
|
|
|
|
Une fois n’est pas coutume, la province Canadienne d’Alberta fait parler d’elle pour autre chose que ses très controversés sables bitumineux. En effet, la communauté solaire Drake Landing d’Okotoks, un quartier d’une cinquantaine de maisons basse consommation vient de recevoir l’Energy Globe World Award pour son système de stockage sous-terrain de l’énergie solaire d’une saison à l’autre. Le système de chauffage repose sur trois boucles reliées à une centrale d’énergie communautaire : une boucle d’eau chaude parcourant les maisons, une boucle de captation de la chaleur, et enfin une boucle menant au dispositif de stockage de la chaleur.
Chaque logement est chauffé par un circuit d’air, une sorte de VMC double-flux montée sur un échangeur air/eau connecté à la boucle d’eau chaude du quartier (40 à 50°C). L’eau chaude sanitaire est quant à elle assurée par un système séparé : un chauffe eau solaire muni d’une relève à gaz. La boucle de captation de chaleur exploite 800 panneaux solaires thermiques (installés sur les garages) qui développent 1,5 MW les jours d’été !
Enfin, le système de stockage est un BTES (Borehole Thermal Energy Storage ou stockage thermique par forage) : 144 tubes plastiques en « U », espacés de 2,25m, plongent à 37 mètres de profondeur dans le sol, et transmettent la chaleur à la roche, qui atteint jusqu’à 80°C à la fin de l’été. Une température suffisamment élevée pour fournir de la chaleur durant tout l’hiver ! A la confluence des trois boucles, la centrale d’énergie assure un stockage thermique temporaire (suffisant pour tenir 3-4 jours) via deux ballons de 120 m3, ainsi que la répartition de la chaleur entre les différents circuits en fonction des besoins. Elle contient également une chaudière à gaz en secours et/ou appoint.
Les performances de ce système sont étonnantes et les chauffe-eau solaires dédiés à l’eau chaude sanitaire apportent environ 60 % des besoins de chaque maison, un chiffre conforme à l’ensoleillement cette région du Canada, identique à l’Italie ou la Grèce. Les performances du chauffage des logements sont plus inattendues : 90 % de l’énergie utilisée dans l’année provient de l’énergie solaire !
Batiweb
|
|
|
|
|
|
|
|
Des chercheurs du laboratoire CRANN de Trinity College Dublin en Irlande, ont récemment publié les résultats de leur recherche concernant un nouveau type de matériau utilisable dans les cellules solaires, les écrans plats de télévisions, les écrans d'ordinateurs, les écrans à cristaux liquides (LCD), les diodes électroluminescentes (LED) notamment. Tous ces appareils ont un point commun : ils utilisent des matériaux qui conduisent l'électricité et sont transparents en même temps.
Aujourd'hui, l'industrie utilise principalement une classe de matériaux transparents qui sont des oxydes conducteurs. Ces matériaux permettent un bon compromis entre la conductivité électrique et la transparence optique. Rappelons que l'électronique moderne est basée sur le concept de conduction par des électrons et des trous, c'est-à-dire qu'ils font usage de matériaux de type N et P. Le transistor, n'est rien de plus qu'un sandwich de matériaux de type N et P. L'un des oxydes les plus largement utilisés est l'oxyde d'indium-étain. Cependant, ces oxydes conducteurs transparents ont une limitation fondamentale : ils sont tous des conducteurs d'électricité de type N, c'est-à-dire où la conduction se fait par le mouvement des électrons. L'électricité peut aussi apparaître grâce au mouvement des trous, concept décrivant l'absence d'un électron : il s'agit alors de matériaux de type P.
C'est le manque d'oxyde conducteur transparent de type P de bonne qualité qui a conduit le Professeur Shvets, titulaire de la Chaire de Physique Appliquée de Trinity College Dublin, et son équipe de recherche, à étudier comment d'autres oxydes pourraient être modifiés pour les rendre simultanément conducteurs électriques et optiquement transparents. Le nouveau matériau créé est à base d'oxyde de chrome, les modifications étant obtenues par la substitution simultanée de certains des atomes de chrome et d'oxygène par du magnésium et de l'azote. Une demande de brevet protégeant le nouveau matérieau a été déposée par le Trinity College Dublin. Le nouveau matériau pourrait ouvrir la possibilité de concevoir des transistors transparents qui pourrait amener des écrans télévisés transparents. Il pourrait également être utilisé pour augmenter l'efficacité de certains panneaux solaires, ce qui améliorerait considérablement l'adoption de ces derniers.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Un nouveau projet de l'UE qui vient juste de commencer vise à mettre au point les premières puces de mémoires vives (RAM) optiques à 100 gigabits par seconde (Gbit/s). Ces puces seront une grande première. Le projet RAMPLAS («100 Gbps optical RAM on-chip : silicon-based, integrated optical RAM enabling high-speed applications in computing and communications») compte six partenaires. Il a été partiellement financé par près de 2 millions d'euros au titre du thème «Technologies de l'information et de la communication» (TIC) du septième programme-cadre (7e PC) de l'UE.
Les partenaires du projet, qui viennent d'Allemagne, de Grèce, des Pays-Bas et de Finlande, comptent revoir les principes fondamentaux du stockage informatique en RAM. Ils poseront également les bases d'une nouvelle technologie de RAM optique ainsi que d'architectures d'ordinateur ultrarapide utilisant ces mémoires. Depuis plus de 20 ans, l'écart entre la vitesse des processeurs et celle de la mémoire n'a cessé de se creuser. C'est ce que l'on appelle le «Mur de la mémoire». Les RAM électroniques actuelles sont trop lentes par rapport à l'évolution des processeurs, ce qui engendre un goulet d'étranglement et limite les performances.
Le consortium de RAMPLAS s'est dont attaqué à la mise au point des premières puces de RAM optique à 100Gbit/s, à partir de technologies d'intégration photonique sur une base SOI (silicium sur isolant). La technologie SOI met en oeuvre un substrat en couches silicium-isolant-silicium au lieu des substrats classiques en silicium utilisés dans la fabrication des semi-conducteurs, notamment en microélectronique. Cette méthode réduit les capacitances parasites et améliore les performances.
L'équipe de RAMPLAS espère accroître de 2 ordres de grandeur la vitesse d'accès à la RAM, et réduire de 50 % la consommation par rapport aux meilleures puces actuelles de RAM électronique. L'autre but de ce projet de trois ans est d'encourager l'utilisation d'un nouveau cadre pour les disciplines nécessaires à l'application efficace de la RAM dans l'informatique, les communications et les technologies de test et de mesure.
Le projet RAMPLAS applique une approche transdisciplinaire qui associe l'innovation en informatique, la conception optique, l'intégration photonique et la physique des semi-conducteurs. Son but est de fournir les bases théoriques de la RAM optique et de proposer des conceptions originales pour des circuits de RAM optique. Une approche par blocs associera la conception de circuits avec les paramètres de la couche physique, en utilisant des techniques d'hétéro-intégration qui augmenteront la densité d'intégration de la technologie SOI, bien établie. Le projet envisage des puces allant jusqu'à 64 bits, en prévision d'une RAM optique à haute intégration avec des capacités de l'ordre du kilo-octet.
RAMPLAS vise la totalité du cadre de l'informatique à RAM optique. Il déterminera les relations fondamentales entre les réseaux de distribution de contenu et les architectures de multitraitement au niveau de la puce, afin d'introduire les concepts que vise l'équipe. Le projet étudiera de nouveaux algorithmes de mapping tridimensionnel (3D) de cache, exploitant la dimension de la longueur d'onde dans l'adressage mémoire pour réaliser un mapping de mémoire cache n-associative visant à optimiser le taux de réussite du cache. Les résultats de RAMPLAS seront évalués dans le cadre d'un solide plan de validation de la preuve de concept utilisant des simulations et des expériences.
Cordis
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
5 ans après sa mise en orbite, le télescope spatial du CNES, n’en finit pas de surprendre par la qualité de ses observations. Le point avec Olivier La Marle, coordinateur des programmes d'astrophysique au CNES.
- Des exoplanètes très diversifiées
Lancé le 26 décembre 2006, le télescope spatial du CNES affiche un joli palmarès après 5 années passées en orbite à 896 km d’altitude. Dans l’escarcelle fin novembre : 625 candidates exoplanètes détectées dont 25 confirmées depuis le sol à ce jour. Mais ce n’est pas tout, CoRoT a découvert la première planète très probablement de type « Terre » en dehors du Système Solaire : CoRoT-7b, confirmée en 2009.
Impossible d’en savoir plus pour le moment mais cette planète est très prometteuse d’autant qu’elle pourrait être accompagnée d’une deuxième planète rocheuse, 8 fois plus massive que la Terre : CoRoT-7c. « CoRoT a marqué son temps en étant la 1ere mission spatiale pour la recherche d’exoplanètes en transit, confie Olivier La Marle, coordinateur des programmes d'astrophysique au CNES. Les résultats obtenus sont beaucoup plus riches que prévu. »
En effet, CoRoT a mis en évidence une grande diversité d’exoplanètes avec des diamètres qui varient dans un rapport 10 et des densités dans un rapport 200.
- De la vie extra-terrestre
Outre la détection d’exoplanètes, l’autre mission de CoRoT, l’observation de la vibration des étoiles, est également un succès : « Le satellite a détecté dans une autre étoile que le Soleil, un cycle d’activité magnétique comparable mais sur 120 jours au lieu de 11 ans, se réjouit Olivier La Marle. Il a aussi mesuré des oscillations identiques à celles du Soleil, dans les géantes rouges, ces étoiles en fin de vie qui enflent jusqu’à des dimensions pouvant atteindre la distance Terre-Soleil. »
La mission de CoRoT a été prolongée de 3 ans jusqu’en 2013. L’instrument et le satellite fonctionnent parfaitement bien avec encore de bonnes réserves de carburant. Côté américain, le télescope Kepler a récemment découvert une exoplanète dans la zone d’habitabilité de son étoile, à 600 années-lumière de la Terre.
L’ESA, quant à elle, pourrait lancer le télescope à champ très large, Plato, à l’horizon 2022. Autant de projets qui nous feront peut-être découvrir, un jour, une forme de vie extra-terrestre.
CNES
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L'année 2011 a été en France l'année la plus chaude depuis le début du XXe siècle, battant haut la main le précédent record de chaleur datant de 2003, selon un bilan provisoire réalisé par Météo France. "Au niveau annuel, on est en présence en 2011 de l'année la plus chaude depuis qu'on fait des relevés météo", résume François Gourand, prévisionniste à Météo France. Du 1er janvier au 26 décembre, la température moyenne à l'échelle de toute la France a été de 13,6°C, soit 1,5 degré de plus que la normale (moyenne de référence 1971-2000), relève M. Gourand.
La principale explication à ce record de 2011 est un printemps "exceptionnellement chaud", avec des températures dépassant en moyenne de 4 degrés les normales saisonnières en avril, et de 2,4 degrés en mai. Mais l'automne a lui aussi été particulièrement doux, souligne M. Gourand, avec un mois de novembre deuxième plus chaud depuis 1900, de trois degrés supérieur à la normale en moyenne. Quant au mois de décembre, il affiche à ce stade une anomalie de température de 2,1 degrés pour l'ensemble de la France, ce qui est "très doux" mais pas un record. Plus globalement, tous les mois de 2011 ont dépassé la normale (moyenne de référence 1971-2000), à l'exception notable de juillet, qui a été étonnamment frais, avec un déficit de 1,3 degré par rapport à la normale. Ce qui en a fait le mois de juillet le plus frais de ces trente dernières années.
2010 était pourtant en France l'année la plus fraîche des deux dernières décennies, à égalité avec 1996, mais il faut regarder les données sur des durées beaucoup plus importantes pour en tirer des tendances à long terme sur le climat. Ainsi, au niveau mondial, un bilan provisoire réalisé par l'Organisation météorologique mondiale (OMM) fin novembre indiquait que l'année 2011 était à ce stade la "dixième plus chaude à l'échelle du globe" depuis le début des relevés en 1850. Signe plus inquiétant des conséquences du réchauffement climatique, les treize années les plus chaudes qu'a connues la planète sont toutes concentrées sur les quinze dernières années, depuis 1997, relevait l'agence de l'ONU. Les températures élevées recensées en France en 2011 se sont accompagnées d'un fort déficit pluviométrique, avec des précipitations environ 20 % inférieures en moyenne à l'échelle du pays, sauf dans le Sud-Est, où les pluies diluviennes du mois de novembre ont permis d'atteindre la normale.
Météo France
|
|
|
|
|
|
|
|
D'après les recherches paléo-climatologiques, le dioxyde de carbone (CO2) a joué un rôle important dans les différents changements climatiques que la Terre a connus. De nouveaux résultats, publiés dans la revue Science, montrent que la réduction de la concentration de CO2 a été un élément crucial dans le refroidissement global et la glaciation de l'Antarctique il y a environ 34 millions d'années.
Pour parvenir à ce résultat, une équipe internationale de chercheurs de différentes disciplines a reconstruit les concentrations de CO2 et le développement du climat de l'Océan Atlantique à l'Océan Austral durant la transition entre l'Eocène et l'Oligocène. L'université d'Uppsala a contribué à cette étude en effectuant des mesures sur les fossiles d'algues marines (coccolithophores). En effet, le CO2 est fondamental pour ces organismes et un lien existe entre les concentrations de CO2 et la taille des cellules de ces algues. Les espèces dotées de petites cellules sont plus à même de survivre dans un environnement pauvre en CO2.
La relation entre ce gaz à effet de serre, la glaciation et le niveau de la mer montre que le CO2 a joué un rôle primordial dans le changement climatique de cette période.
Cette étude a été soutenue par l'Université de Yale (département de géologie et de géophysique), la Fondation Nationale des Etats-Unis pour la Science (NSF), le Conseil de Recherche du Royaume Uni sur l'environnement naturel (NERC) et l'Académie Royale des sciences suédoise (KVA).
Bulletins Electroniques
|
|
|
|
|
|
|
|
La fonte des glaces en Antarctique inquiète. Elle serait causée par l'élévation de la température des mers. Mais connaît-on précisément les effets que les changements climatiques peuvent avoir sur l’épaisseur de la banquise ? Des chercheurs ont mis en place un thermomètre géant dans le but d'effectuer un suivi à long terme de son épaisseur.
La fonte des glaces en Antarctique est un phénomène préoccupant. En effet, les glaces flottantes ont pour rôle de retenir les glaciers sur le continent en les empêchant de glisser vers l’océan. Cette action permet de limiter l’élévation du niveau des mers. Le nombre de recherches menées depuis quelques années pour comprendre la fonte des glaces en Antarctique est considérable. Elles sont basées sur des données satellitaires, sur des mesures ponctuelles et des études stratigraphiques. Si les images satellite fournissent des informations « du dessus », on ne connaît pas encore précisément les phénomènes se déroulant sous la banquise, à l’interface glace-eau. Pourtant, de telles connaissances sont nécessaires afin d'évaluer avec précision les conséquences du réchauffement climatique sur les glaces du pôle Sud.
Une équipe de l’université du Nevada, dirigée par Scott Tyler, a développé un nouvel outil permettant de suivre en temps réel l’épaisseur de la banquise au cours du temps, grâce à des mesures de températures et de pressions. Ils ont mis au point un câble pouvant relever les températures toutes les 15 secondes, 24 heures sur 24 et… tous les mètres. Il se compose d’un ensemble de fibres optiques entourées par une gaine de protection pouvant résister à de très fortes pressions. Une technologie laser est employée pour effectuer les mesures. Enfin, ce dispositif est complété par un module communiquant les données à distance plusieurs fois par jour par le biais d’une liaison satellite.
- Comment s’installe ce thermomètre géant ?
Le dispositif a été installé sur la banquise de Ross, en bordure de l’océan Pacifique. Le site expérimental se situe à proximité de la station scientifique McMurdo, en un lieu où les vents peuvent régulièrement souffler à plus de 160 km/h. Deux forages ont été réalisés dans la glace afin d’abriter deux câbles différents. Le premier mesure 800 mètres de long et s’étend entre la surface de la banquise et le plancher océanique. Il permet également de mesurer les courants marins. Le second câble s’arrête quant à lui à 50 mètres sous l’interface glace-eau. En surface, les appareils de mesures sont alimentés par des éoliennes et des panneaux solaires. Un système de caméra permet de surveiller les installations à distance. Par conséquent, le dispositif est autonome et doit être capable de fonctionner une année entière sans aucun problème.
La phase de test de l’installation en Antarctique vient de se terminer. Le suivi à long terme de l’épaisseur de la banquise a donc débuté.
- Dispose-t-on déjà d’informations sur la banquise ?
Les premiers résultats montrent que la température de l’eau est de -1,9°C sur toute la hauteur de la colonne d’eau. Quant à la glace, elle présente une température de -22°C en surface (ce qui correspond à la température moyenne de l’air dans cette région) qui augmente ensuite de manière exponentielle jusqu’à atteindre une valeur de -1,8°C au contact de l’eau. Avec l’arrivée de l’été, les chercheurs estiment que l’augmentation de la température de l’eau va provoquer un amincissement de la banquise d’environ 1,5 mètre.
Les effets du réchauffement de l’eau sur le long terme ne seront connus que dans quelques années. Mais avant même d’obtenir des résultats, les scientifiques ont voulu montrer qu’un tel système pouvait être mis en place rapidement et à moindre coût. Ce procédé pourrait être employé pour étudier les variations de la température des mers et océans dans le monde entier.
Futura Sciences
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des accidents vasculaires cérébraux (AVC) non détectés semblent être l'une des causes du déficit de mémoire, selon une étude américaine. Cela apporte une explication supplémentaire au déclin de certaines capacités cognitives. Et peut-être à la maladie d'Alzheimer...
Les accidents vasculaires cérébraux sont plus fréquents qu’on ne le croit. Mais la plupart du temps ils se révèlent asymptomatiques, ne touchant que quelques neurones. On les dit silencieux. Il semblerait qu’ils puissent se produire à partir de 30 ans et une personne sur trois en est victime chaque année dès 70 ans. Pris un à un, ces AVC n’ont que peu d’incidence, mais au fil du temps, les conséquences peuvent se faire remarquer. Une étude menée par des chercheurs de l’université Columbia de New-York (États-Unis) et publiée dans Neurology démontre leurs impacts sur la mémoire.
La mémoire est un processus très complexe. L’un de ses sièges cérébraux serait l’hippocampe, une petite structure comprise dans le lobe temporal médian du cerveau des mammifères. C’est là que seraient stockés bons nombres de souvenirs que l’on peut exprimer verbalement (culture générale, faits vécus dans le passé). Des études précédentes avaient soutenu qu’un hippocampe de petite taille était associé au déclin cognitif.
Un lien entre capacités cognitives et nombre d'AVC silencieux
Dans ce travail de recherche, les auteurs ont passé à l’IRM 658 sujets sains âgés de 79 ans en moyenne et les ont également soumis à des tests de mémoire, de langage, de vitesse de traitement de l’information et de perception visuelle. Parmi ces participants, 174 (soit 26 %) avaient des AVC silencieux.
Ces sujets se sont révélés moins performants dans les différents tests intellectuels, y compris ceux portant sur la mémoire, que leurs camarades, indépendamment de la taille de leur hippocampe. Cela démontre donc que le volume de l'hippocampe n'est pas la seule donnée servant à estimer le déclin des capacités cognitives, mais que ces infarctus cérébraux jouent bel et bien un rôle.
Les facteurs de risques de ces AVC sont l’obésité accompagnée de son lot de maladies cardiovasculaires, ainsi que l’hypertension ou encore le cholestérol. Les dégâts qu’ils causent, même à petite échelle, sont irréversibles.
Adam Brickman, l’un des coauteurs de l’étude, croit même que les implications de cette découverte peuvent aller plus loin que la simple prévention du déclin cognitif naturel lié à l’âge. « Je pense qu’on est au début d’une histoire [médicale] dans laquelle [on considère que] les maladies cardiovasculaires contribuent aux symptômes de la maladie d’Alzheimer. » C’est en tout cas dans cette voie que les recherches vont poursuivre.
Futura Sciences
|
|
|
|
|
|
|
|
La mécanique quantique est une description du monde élaborée au début du XXème siècle pour expliquer mathématiquement un certain nombre de phénomènes physiques inexplicables par la physique classique. C’est une méthode descriptive qui fonctionne admirablement bien au sens où elle décrit de manière pertinente des phénomènes réels, mais elle n’est basée sur aucune “théorie quantique du monde”, même si certaines propositions de ce type sont apparues depuis lors. La mécanique quantique fait grand usage d’un monde mathématique virtuel appelé “espace de Hilbert“ ; au sein duquel l’état de quelque chose est représenté sous la forme d’un vecteur d’état dont la direction varie selon le contexte (par exemple les contraintes expérimentales).
Exemple classique dit des fentes de Young : le comportement de photons projetés vers 2 fentes A et B donnera des nuages de points derrière A si B est fermé et vice-versa (comportement classique de particule), mais donnera lieu à un phénomène de diffraction (ou interférences) si les deux fentes sont ouvertes (comportement ondulatoire). L’état du photon dépend du contexte dans la réalité, tout comme dans l’espace de Hilbert utilisé pour décrire cette réalité. Et alors il semble que le raisonnement humain, loin d’être rationnel ou “classique” dans le sens physique du terme (n’en déplaise aux économistes), puisse se modéliser de manière beaucoup plus pertinente en utilisant ce même espace de Hilbert.
Le raisonnement humain se comporte comme nos photons ci-dessus : nos choix seront de nature rationnelle dans les cas simples, mais de nature interférentielle ou “quantique” dans des cas plus complexes. Exemple : nous devons placer trois objets tels une carafe, une peinture et une table dans l’une des deux catégories “aménagements d’intérieur” ou “mobilier”. Jusque là pas de problème, nous placerons généralement carafe et peinture dans la première et la table dans la seconde.
Ensuite, on combine ces deux catégories dans une catégorie plus large “aménagements d’intérieur et mobilier”. D’un point de vue logique classique, nous devons admettre que nos trois objets font partie de cette catégorie élargie. Or, sur la base de nombreuses expériences réalisées sur ce thème, très souvent nous refuserons de placer certains de ces objets dans la nouvelle catégorie - ce qui est illogique d’un point de vue classique, mais qui correspond à un résultat “interférentiel” d’un point de vue de logique quantique. Les psychologues appellent cela l’effet de disjonction.
Il est surprenant de voir à quel point la modélisation quantique de la prise de décision humaine se révèle plus pertinente que la modélisation rationnelle classique, alors même qu’il n’est pas suggéré que l’esprit humain soit une “machine quantique” (il l’est peut-être mais c’est une autre histoire).On retrouve la contextualisation typique de la logique quantique dans l’usage des mots. Par exemple pour quelque chose qui est A et aussi B (par exemple une souris qui est aussi un animal) la logique classique imposerait qu’un grand A soit également un grand B - or une grande souris n’est pas un grand animal. D’où l’importance du contexte, qui échappe à la logique classique (laquelle engendre par exemple des théories économiques rationnellement cohérentes mais ubuesques d’un point de vue sociétal, là aussi c’est une autre histoire…), est tout à fait intégré à la logique quantique.
Ces deux facteurs fondamentaux, l’interférence et le contexte, sont de plus en plus reconnus et appliqués : les moteurs de recherche sophistiqués utilisent un équivalent à l’espace de Hilbert appelé l’espace sémantique, au sein duquel sont regroupés des mots très différents mais qui pointent vers le même sens/même contexte. Si l’on fait par exemple une recherche sur le mot “rocher” d’un point de vue géologique et donc sans vouloir voir apparaitre tous les articles de parfumerie et de mode associés à Yves Rocher, le fait de rechercher “rocher sans parfums” éliminera en même temps tous les mots qui ont une relation contextuelle avec “parfums”. Et bien sûr, c’est ainsi que nous raisonnons naturellement en nous-mêmes, mais pourquoi avons-nous développé cette méthode quantique/complexe plutôt que d’être restés sur le bon vieux mécanisme classique que nos ordinateurs binaires et nos technocrates émulent si bien ?
D’abord, notre pensée opère le plus souvent à un niveau inconscient, relativement hors d’atteinte de la logique classique dont le siège est l’esprit conscient. Ensuite, il nous est souvent nécessaire de prendre des décisions sans avoir les moyens ni le temps de calculer rationnellement la meilleure option. La logique quantique permet sans doute d’effectuer à la volée des choix qui ne sont pas nécessairement optimaux mais suffisants la plupart du temps, plutôt que d’effectuer des choix optimaux mais toujours trop tard.
Le Nouvel Observateur
|
|
|
|
|
|
|
|
Délivrer des conseils de santé par téléphone est une méthode séduisante, accessible au plus grand nombre et qui semble à première vue plus économique que le suivi classique en face à face. Toutefois, l’efficacité de cette technique n’est pas complètement établie et le rapport coût-efficacité est peu quantifié. Une revue de la littérature a récemment répertorié les 25 études (27 comparaisons, 11 174 sujets inclus au total) de bonne qualité ayant évalué l’impact d’un suivi à distance, dont au moins la moitié était effectuée par téléphone. Il s’agissait d’essais randomisés ou d’études d’intervention à grande échelle, réalisés dans les conditions de la « vie réelle », incluant une analyse des données avant et après l’intervention. Le conseil téléphonique était jugé efficace quand au moins la moitié des effets souhaités sur les habitudes de vie (amélioration des habitudes nutritionnelles et/ou du niveau d’activité physique) était obtenue.
Globalement, la majorité des analyses comparatives (20/27) ont conclu à l’efficacité du conseil téléphonique. Parmi les 17 études ayant axé la prise en charge uniquement sur l’activité physique, 14 étaient positives tandis que les deux interventions visant le seul changement des habitudes diététiques étaient efficaces. En revanche, seule la moitié des huit essais mixtes (suivi en nutrition et en activité physique) concluait à l’intérêt de l’accompagnement du suivi téléphonique. Une évaluation de l’efficacité de ces interventions à moyen terme (trois à douze mois après la fin du coaching) a été effectuée dans dix des 25 études).
Alors que neuf d’entre elles étaient efficaces à court terme, seul un tiers le restait à moyen terme. Enfin, les trois études non randomisées, mais réalisées à grande échelle dans des conditions de la vie réelle et testant l’impact du suivi téléphonique pour améliorer le niveau d’activité physique concluaient à une efficacité semblable à celle des essais randomisés à court terme et à moyen terme. L’ensemble de ces données plaide en faveur de l’efficacité du coaching téléphonique pour améliorer les habitudes de vie de nos patients.
JIM
|
|
|
|
|
|
|
|
Une équipe lyonnaise a établi que plus la molécule d'une substance odorante est complexe, plus le nombre de notes olfactives perçues est élevé.
Quelle est la relation entre la structure moléculaire des substances odorantes et la perception olfactive que l'on en a ? C'est l'une des principales questions des recherches sur le sens de l'odorat. Plusieurs théories ont été proposées pour y répondre en essayant de relier qualitativement l'odeur perçue et la structure moléculaire, sans y parvenir vraiment. Florence Kermen, Moustafa Bensafi et leurs collègues, au Centre de recherche en neurosciences de Lyon (INSERM/CNRS/Université de Lyon), ont fait avancer la question en adoptant une démarche un peu différente. Ces chercheurs ont établi une relation quantitative entre la complexité moléculaire d'une substance odorante et le nombre de notes olfactives (telles que « boisé », « épicé », « floral », etc.) que cette substance évoque.
Pour ce faire, l'équipe lyonnaise s'est d'abord appuyée sur 411 substances odorantes choisies dans l'atlas standardisé d'Arctander, un ouvrage initialement publié dans les années 1960 par le pharmacien et chimiste danois Steffen Arctander. Cet atlas recense plus de 3 000 substances odorantes accompagnées de leurs descriptions olfactives complètes par des experts (des « nez »). En se restreignant à une liste de 74 notes olfactives jugées les plus pertinentes, proposée par Maurice Chastrette et deux collègues en 1988, M. Bensafi et son équipe ont examiné le nombre de notes olfactives de chaque substance en fonction de la complexité de la molécule correspondante. Cette complexité est ici mesurée par un indice qu'avaient élaboré des chimistes pour prédire les probabilités d'interaction entre ligands et récepteurs. L'indice de complexité moléculaire, qui va de 0 pour de simples ions atomiques à plusieurs milliers pour certaines molécules naturelles, prend en compte la connectivité réalisée par les liaisons chimiques, la diversité des atomes autres que ceux d'hydrogène et la symétrie de la structure moléculaire.
L'examen fait apparaître une relation logarithmique entre la complexité moléculaire (comprise dans cette étude entre 0 et 250) et le nombre de notes olfactives évoquées (compris entre 1 et 4) : plus la molécule est complexe, plus il y a de notes olfactives.
L'équipe lyonnaise a confirmé ces résultats avec des sujets « naïfs », c'est-à-dire des personnes n'ayant pas un odorat entraîné. L'expérience a porté sur 24 sujets non experts à qui l'on a demandé de sentir 54 substances odorantes figurant dans l'atlas d'Arctander et de les décrire verbalement. Cette expérience a de plus révélé que les substances odorantes de faible complexité moléculaire sont perçues comme plus désagréables que les autres.
L'olfaction est un processus complexe, qui comporte à la fois un aspect inné et un aspect acquis. La perception des odeurs chez l'homme peut être modulée par la panoplie des récepteurs olfactifs présente chez le sujet, par l'état physiologique de ce dernier, par l'apprentissage, par la connaissance du vocabulaire des odeurs. Cependant, l'étude lyonnaise révèle une propriété intrinsèque du système olfactif, indépendante de ces facteurs. Quant aux mécanismes neuronaux sous-jacents au lien entre complexité moléculaire et nombre de notes olfactives, ils restent à élucider. M. Bensafi et ses collègues émettent l'hypothèse que les substances odorantes complexes activent davantage de récepteurs olfactifs que les substances moins complexes, ce qui crée plus de notes olfactives et rend l'odeur plus agréable. Une hypothèse que tend à confirmer l'analyse de données disponibles sur l'activation de récepteurs olfactifs chez les mammifères par un ensemble de substances odorantes.
Pour La Science
|
|
|
|
|
|
|
|
Pour prendre la bonne décision, les primates font comme les humains. Ils évaluent les bénéfices qu'ils pourraient tirer d'une éventuelle prise de risque. Si ce risque est trop important, ils se ravisent.
Tous les jours, les humains sont amenés à prendre des décisions et face à une alternative, ils évaluent les risques de chacune des possibilités. Des chercheurs se sont rendu compte, expériences à l’appui, que la situation était similaire pour les grands singes et que lorsqu’ils doivent faire un choix, ils s’orientent préférentiellement vers la solution la moins risquée. Imaginez que vous ayez face à vous deux enveloppes. Dans l’une a été placé un billet de 50 euros et dans l’autre, un billet de 100 euros… ou rien ! Pour laquelle opterez-vous ? La sagesse voudrait que l’on s’oriente vers l’enveloppe contenant le billet de 50 euros.
- Prendre la décision la plus bénéfique
Des chercheurs de l’Institut Max Planck ont réalisé des tests de ce type avec quatre espèces de grands singes : des bonobos (Pan paniscus), des chimpanzés (Pan troglodytes), des orangs-outans (Pongo abelii) et des gorilles (Gorilla gorilla). Les décisions ne concernaient pas de l’argent, mais de la nourriture, et plus exactement des bananes, comme les scientifiques le décrivent dans Plos One.
Les scientifiques confrontaient les primates à une alternative : soit se contenter d’un petit morceau de banane, soit tenter d’en trouver un plus gros, sachant que le succès n’était pas garanti. Et les résultats montrent que ces animaux choisissent préférentiellement l’option sécuritaire (donc le petit morceau).
- Les primates et les probabilités
Non seulement, ces tests mettent en évidence la faculté qu’ont les grands singes à prendre des décisions, mais en variant les paramètres des expériences, les scientifiques se sont aperçus que les cobayes étaient capables d’apprécier assez justement les probabilités en jeu ! À savoir que plus la récompense est importante, plus le primate va prendre de risque pour l’obtenir.
Ainsi, au cours des tests, les singes pouvaient choisir entre un petit bout de banane placé sous un bol reconnaissable (option sécuritaire) ou un gros bout de banane placé sous un seul bol parmi plusieurs identiques (option risquée). Quand la taille du petit morceau de banane augmentait – diminuant ainsi le bénéfice d’obtenir le gros – le cobaye choisissait la solution sécuritaire. De même quand le nombre de bols sous lesquels pouvait être placé le gros bout augmentait.
Les auteurs ont cependant été surpris par la prise de risque de ces primates et se demandent maintenant ce que les Hommes feraient au cours d’expériences identiques. La prochaine étape consistera donc à tester les humains. Peut-être faudra-t-il néanmoins les récompenser avec autre chose que des bananes…
Futura Sciences
|
|
|
|
|
|
|
|
Face aux terribles fièvres hémorragiques provoquées par le virus Ébola, des chercheurs américains ont mis au point un vaccin particulièrement efficace chez des souris. Reste désormais à vérifier si l’on constate la même efficacité chez les singes, qui ont un système immunitaire très proche du nôtre.
Avec des taux de mortalité approchant les 90 % pour ses formes les plus létales, la maladie due au virus Ébola (de la famille des filovirus) est l’une des plus terribles touchant l’espèce humaine. Il infecte les singes qui vont ensuite le transmettre à l’Homme et, par les fluides corporels ou par voie aérienne, va provoquer des pandémies ravageuses. Dans les cas les moins critiques, un malade sur quatre ne s’en remet pas. Le foyer se situe en Afrique centrale, où des espèces de chauves-souris en constituent le réservoir.
Les scientifiques travaillent sur le virus pour apporter une solution à ce problème sanitaire majeur, notamment pour prévenir une hypothétique attaque bioterroriste. Alors qu’un traitement verra peut-être le jour d’ici quelques années, des chercheurs américains de l’université d’Arizona, sous la direction de Charles Arntzen, annoncent avoir conçu un vaccin efficace à 80 % chez des souris. Les résultats de cette étude ont été publiés dans la revue Pnas du 5 décembre.
Pour réaliser cette performance, les auteurs ont synthétisé un complexe immun en fusionnant la glycoprotéine de surface du virus (un antigène) avec l’anticorps adapté. En théorie, l’injection d’un complexe immun active les cellules du système immunitaire et prépare l’organisme à résister contre l’antigène en question. Dans ce cas, ils ont constaté qu’en inhibant les récepteurs de type Toll (impliqués dans la reconnaissance de motifs antigéniques conservés et comptant parmi les formes vestigiales d’immunité), la réponse immunitaire était accentuée. Ils n’ont pas hésité à stimuler les défenses des souris.
- Des souris infectées par le virus Ébola n'ont pas déclaré la maladie
Dix souris ont alors bénéficié d’une vaccination, avant de se voir injecter une forme létale du virus Ébola. Huit d'entre elles n’ont pas contracté la maladie et présentaient une réponse immunitaire humorale (fabrication d’anticorps) et cellulaire (destruction des cellules infectées), suggérant ainsi que ces deux formes sont indispensables pour contrecarrer l’infection. Dans un autre groupe de souris infectées par le virus mais non vaccinées, toutes ont succombé.
Cependant, cette découverte ne permet pas encore d’améliorer les rendements déjà obtenus lors d’expériences passées, et la possibilité d’extrapoler ces résultats à l’Homme reste encore à démontrer. Bien souvent, les espoirs suscités par des travaux portant sur des cobayes ne peuvent pas se concrétiser dès lors qu’il faut franchir la barrière des espèces.
Les auteurs pointent tout de même du doigt le fait que leur méthode, si elle se révèle efficace, pourrait être une alternative avantageuse pour des mesures de protection de la santé publique car le rapport efficacité/coût de fabrication serait intéressant et le stockage à long terme tout à fait possible. Mais il reste encore de nombreuses étapes à franchir avant de commencer à évoquer cette hypothèse.
Futura Sciences
|
|
|
|
|
|
|
|
Les personnes âgées avec des niveaux élevés de vitamines et d’oméga 3 dans le sang ont de meilleures performances intellectuelles et une meilleure mémoire que celles qui ont un régime alimentaire déséquilibrée.
Une étude de l’université de l’Oregon est l’une des premières qui a mesuré spécifiquement un large éventail de nutriments dans le sang de sujets plutôt que de se fier à un questionnaire sur leur régime alimentaire. Elle relève les effets positifs d’un taux élevé de vitamines B, C, D, E et d’oméga 3 dans le sang. Les résultats détaillés sont publiés dans la revue Neurology et « montrent clairement que l’activité biologique et neurologique est associée à des taux de nutriments dans le sang » explique Maret Trabet, principal auteur de l’étude.
Les tests ont été menés sur 104 sujets âgés de 87 ans en moyenne sans facteur de risques particuliers, ils ont permis de quantifier une trentaine de biomarqueurs sanguins et la moitié des participants a également eu une mesure du volume du cerveau par IRM. Parmi les constatations et observations, les auteurs expliquent que les personnes avec les meilleurs résultats cognitifs consommaient régulièrement des acides gras d’origine marine et des fruits et légumes apportant des vitamines B, C, D et E.
A l’inverse, un taux élevé d’acides gras trans (insaturés) produits lors de la friture des aliments et présents en quantité dans les aliments vendus dans les chaînes de restauration rapide est associé aux plus mauvaises performances cérébrales. Si une grande partie de la variation de la performance mentale dépend de facteurs comme l'âge ou l'éducation, le niveau et la nature des nutriments influent pour 17 pour cent dans les scores de mémoire et 37 pour cent dans la variation de la taille du cerveau.
Les changements cognitifs liés aux différents régimes alimentaires peuvent être dus à la fois aux impacts sur la taille du cerveau et sur la fonction cardiovasculaire, en effet plusieurs études récentes ont montré que des accidents vasculaires cérébraux à bas bruit sur de petits territoires du cerveau pouvaient être responsables de la perte de mémoire chez les personnes âgées.
L'étude doit être confirmée par des recherches supplémentaires et d'autres variables doivent également être testées, ont déclaré les scientifiques. Mais si « quelqu’un prend comme bonne résolution d’améliorer son régime alimentaire, il protégera certainement son cerveau » conclut Maret Trabet.
Sciences et Avenir
|
|
|
|
|
|
|
|
Les bactéries magnétotactiques (MTB) possèdent un organite unique, appelé magnétosome, constitué de nano-cristaux magnétiques de greigite (Fe3S4) ou de magnétite (Fe3O4). Alignés comme une aiguille de boussole, ces nano-cristaux leur permettent de nager le long des lignes de champs magnétiques à la recherche du milieu le plus favorable pour leur croissance. Bien que très largement répandues dans la nature, les MTB restent difficiles à cultiver en laboratoire. Seules quelques souches de ces bactéries, capables de produire uniquement des nano-aimants de magnétite, ont pu être cultivées. Quant aux bactéries magnétotactiques formant des nano-cristaux de greigite, les chercheurs n’avaient à ce jour jamais réussi à les isoler.
Pour répondre à ce challenge, des chercheurs du CEA, du CNRS, des Universités de la Méditerranée et Pierre et Marie Curie, en collaboration avec leurs partenaires américains, brésiliens et hongrois, ont réalisé des prélèvements au Nevada et en Californie dans des milieux aquatiques constitués d’eau douce ou d’eau saumâtre. Ils ont montré la présence de bactéries magnétotactiques (MTB) produisant à la fois de la greigite et de la magnétite dans ces milieux. De plus, l’analyse phylogénétique de ces bactéries leur a permis d’identifier deux nouveaux genres inconnus appartenant à la classe Deltaproteobacteria, l’une des classes bactériennes les plus étudiées. Grâce à l’analyse d’échantillons provenant d’un bassin saumâtre de la vallée de la mort en Californie, les chercheurs ont réussi à isoler et à cultiver une bactérie, nommée Desulfamplus magnetomortis BW-1, appartenant à un de ces nouveaux genres bactériens et capable de produire à la fois de la greigite et de la magnétite.
De manière générale, chez les MTB, la formation des magnétosomes est contrôlée génétiquement par un groupe de gènes, les gènes mam, qui sont spécifiques des bactéries magnétotactiques (MTB). Le séquençage du génome de la bactérie BW-1 a confirmé l’existence de ces gènes mam chez cette nouvelle espèce. Toutefois, chez BW-1, ces gènes s’organisent différemment et forment deux groupes de gènes distincts dans le génome. Le premier groupe est homologue aux gènes permettant chez les MTB la formation de nano-aimants de magnétite. Le second partage le plus de similarités avec des gènes impliqués dans la formation de nano-aimants de greigite. La formation des magnétosomes de magnétite et de greigite, chez la bactérie BW-1, serait donc régie par ces deux groupes de gènes dont l’expression serait régulée en fonction des conditions environnementales.
Un grand nombre d’applications biotechnologiques sont à l’étude pour l’utilisation des nanocristaux de magnétite produit par les MTB, notamment pour l’imagerie par résonance magnétique, la dépollution ou l’utilisation de magnétosomes modifiés comme catalyseurs. La première mise en culture de cette nouvelle bactérie produisant de la greigite est une avancée majeure qui va permettre de caractériser ces nouveaux nanoaimants et d’élargir le champ des applications potentielles des magnétosomes.
Ces résultats ont été publiés dans la revue Science du 23 décembre 2011.
CEA
|
|
|
|
|
|
|
|
Pourquoi certaines régions chromosomiques sont-elles sensibles à l’apparition de cassures ? Répondre à cette question est crucial, car cette fragilité est impliquée dans le développement de tumeurs. Une équipe de l’Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Inserm/Université de Strasbourg) vient de lever une partie du voile sur ce mystère.
Laszlo Tora et ses collègues ont découvert que les cassures au niveau des gènes humains les plus longs sont dues à un phénomène jugé jusqu’ici peu probable dans les cellules des mammifères : une interférence entre deux processus génétiques clefs, la transcription et la réplication de l’ADN. Publiés dans le journal Molecular Cell du 23 décembre 2011, ces travaux pourraient mener, à terme, à des stratégies anti-tumorales inédites.
Laszlo Tora et ses collègues ont commencé par étudier la transcription de gènes humains de très grande taille (plus de 800 kilobases -3), connus pour présenter des cassures de l’ADN appelées "sites fragiles communs". Leur hypothèse de départ : comme le temps requis pour la transcription de ces très grands gènes est extrêmement long, ce processus de transcription pourrait être impliqué dans l’apparition des sites fragiles.
Pour la tester, les chercheurs ont utilisé la technique de cytométrie en flux. Cet outil leur a permis de trier les cellules selon leur avancement dans le cycle cellulaire - cellules en phase G1 (transcription des gènes et croissance de la cellule), S (réplication de l’ADN), G2 (croissance et préparation à la division cellulaire) puis M (division cellulaire). Et il est apparu que la transcription des très grands gènes dépasse largement la durée du cycle cellulaire, pour se terminer au début du cycle suivant, en phase G1 ou bien S. Un premier résultat étonnant : jusqu’à présent, il était admis, chez les mammifères, que la transcription des gènes avait lieu durant un même cycle cellulaire, et majoritairement en phase G1.
Comme la réplication survient pendant la phase S, les chercheurs ont soupçonné une interférence entre transcription et réplication pour expliquer les cassures sur les très grands gènes des mammifères. Ils ont donc étudié le processus de réplication sur ces gènes. Résultat : la réplication dans la région des sites fragiles survient à la fin de la phase S, alors que la transcription est encore en cours dans ces mêmes régions ! Cette découverte bouscule les connaissances actuelles en génétique. En effet, avant ces travaux, il était généralement admis que les machineries de transcription et de réplication de l’ADN ne pouvaient pas se rencontrer chez les mammifères.
Pour aller plus loin, l’équipe a cherché ensuite à savoir précisément ce qui pouvait fragiliser l’ADN quand réplication et transcription sont concomitantes. Ils ont mis en évidence des structures en boucle qui perdurent, dues à l’hybridation de l’ADN avec la molécule d’ARN produite lors de la transcription. Ce sont ces boucles ADN/ARN qui déstabiliseraient l’ADN jusqu’à provoquer des cassures en cas de stress.
Primordiale, cette découverte ouvre de nouvelles perspectives de recherche en médecine : les fameuses boucles apparaissent comme de possibles cibles pour réduire l’instabilité génomique et l’apparition de tumeurs.
Inserm
|
|
|
|
|
|
|
|
Le Centre national pour le traitement des sarcomes, le Centre Léon-Bérard (CLB) va démarrer en janvier un essai clinique pour évaluer un nouveau traitement des synovialo-sarcomes. Le seul traitement existant actuellement pour ces cancers rares est la chirurgie. Cependant, même avec une bonne chirurgie, les patients rechutent dans 50 à 60 % des cas.
Des chercheurs de Tokyo ont identifié une protéine surexprimée à la surface des cellules des synovialosarcomes, l’homologue 10 du gène Frizzled (FZD10) et la société japonaise OncoTherapy science a synthétisé un anticorps ciblant cette protéine. Une étude pré-clinique innovante - un isotope radioactif (l’Yttrium-90) a été associé à l’anticorps monoclonal - a montré un effet anti tumoral. Pour les essais cliniques, 21 patients seront recrutés pour 24 mois au CLB et dans deux autres centres de lutte contre le cancer, l’Institut Gustave-Roussy et l’Institut Bergonié.
« C’est une première mondiale à plusieurs titres. D’abord, c’est la première fois que ce médicament est administré chez l’homme, ensuite c’est la première fois que l’on vise cette cible car on ne savait pas qu’elle pouvait être pertinente », explique le Professeur Jean-Yves Blay, oncologue au CLB et président de l’Organisation européenne de la recherche et du traitement du cancer. L’essai, qui bénéficie d’un financement du cancéropôle Clara, est aussi la première étude SIRIC, label donné par l’Inca (Institut national du cancer) au CLB.
Ce dispositif a pour objectif est de faire émerger des résultats pouvant être rapidement transposés aux patients. C’est aussi la première fois que le CLB bâtit un protocole avec un industriel. La société OncoTherapy Science a installé sa seule filiale à Lyon, l’an passé, dans l’optique de ces essais. Les premiers résultats sont attendus fin 2012. S’ils sont encourageants, les essais de phase II pourraient démarrer en 2014 et peut-être déboucher sur d’autres perspectives car la protéine FZD10 pourrait avoir un rôle dans des cancers plus fréquents.
Centre Léon Bérard
|
|
|
|
|
|
|
|
Le destin de l'homme et celui de l'animal sont liés. D'abord pour survivre par la chasse ou échapper aux prédateurs, puis, à travers la domestication, pour vivre ensemble, s'apprivoiser, se comprendre, se réconforter. Ce lien est tellement solide qu'il apparaît dans le cerveau.
La connexion entre l'homme et l'animal étant a priori affective, Florian Mormann et ses collègues de l'Institut de technologie de Californie ont testé la réaction du centre cérébral des émotions, l'amygdale, à quatre types d'éléments : personnes, objets, bâtiments, animaux. Lors d'opérations chirurgicales réalisées sur des patients épileptiques – qui restent conscients et capables de parler –, ils ont enregistré au moyen d'électrodes l'activité de quelque 500 neurones de l'amygdale cérébrale pendant que les patients regardaient des photographies. Ils ont constaté que les neurones de l'amygdale réagissaient entre cinq et dix fois plus souvent à la présentation d'une photo d'animal que de tout autre objet, et par des courants électriques cinq fois plus intenses. Ce phénomène n'est pas observé dans d'autres régions cérébrales proches.
L'amygdale réagit autant pour les animaux que nous apprécions (petits chats, pandas, poussins) que pour les animaux menaçants (araignées, requins, serpents). Cette zone du cerveau semble spécialisée dans le traitement des émotions, mais plus particulièrement en lien avec le monde animal. Le fait que l'homme éprouve des émotions face à des animaux a sans doute été un outil de survie pendant des millénaires, que ce soit pour fuir les animaux dangereux ou chasser ceux qu'il mangeait. L'amygdale aurait ensuite été « recyclée » par le cerveau pour traiter les émotions en général, liées aux rencontres, au stress, à la frustration, etc. Cela explique aussi pourquoi le contact avec les animaux est un bon régulateur des émotions, et qu'il est utilisé dans certaines thérapies.
Pour La Science
|
|
|
|
|
|
|
|
Des chercheurs de l’Inra, d’AgroParisTech, du CNRS, de l’Inserm, et de l’Université de Montpellier ont réussi à observer l’expression de gènes bactériens avec une précision inégalée. Le niveau d’expression de la plupart des gènes d’une cellule dépend de l’environnement dans lequel est placée cette cellule. De nombreux mécanismes de contrôle de l’expression génétique ajustent l’expression de chaque gène en fonction de l’environnement présent et permettent ainsi l’adaptation de la cellule à cet environnement. Mais, même dans un environnement stable, un gène donné n’est pas toujours exprimé au même niveau dans chaque cellule d’une population. En effet, le mécanisme d’expression des gènes est un processus largement stochastique, largement « bruité ». C’est-à-dire que ce n’est pas un processus continu, régulier et totalement déterminé mais au contraire un processus pour partie aléatoire.
A l’échelle d’une cellule unique, ceci est en partie dû au faible nombre de molécules mises en jeu : une seule copie du gène, quelques molécules régulatrices de ce gène, quelques molécules disponibles pour transcrire ce gène en ARN messager, puis quelques molécules disponibles pour enclencher la traduction de ce messager en protéine, etc. La stochasticité de l’expression des gènes peut ainsi conduire dans certains cas à une hétérogénéité de phénotypes au sein d’une population parfaitement identique génétiquement : schématiquement, une sous-population devient « verte » tandis qu’une autre devient « rouge » alors qu’elles sont génétiquement identiques et placées dans un environnement identique.
Une équipe de microbiologistes de l’Inra et d’AgroParisTech, une équipe de biophysiciens du CNRS, de l’Inserm et de l’université de Montpellier et un mathématicien du CNRS se sont associés pour développer une nouvelle méthode permettant de mesurer au fil du temps l’expression d’un gène donné, aussi faible soit-elle, dans chaque cellule bactérienne d’une population. Et cela, sans les détruire et en comptant directement, de manière absolue, le nombre de molécules produites. Ils se sont focalisés sur la première étape de l’expression, la transcription du gène en ARN messager, pour déterminer le degré et les caractéristiques du processus aléatoire relevant de cette étape précise. Ils ont étudié un petit ensemble de gènes impliqués dans les voies de dégradation et de synthèse du glucose lors d’un changement environnemental précis chez la bactérie modèle Bacillus subtilis et dont ils avaient précédemment étudié les mécanismes moléculaires de contrôle. Un modèle mathématique basé sur la connaissance préalable de ces mécanismes a permis d’analyser et d’interpréter leur impact sur le caractère aléatoire de l’expression des gènes étudiés, à l’état basal (« veille ») ou induit (« éveillé »).
Des travaux récents ont pu montrer que l’expression génique avait lieu par « impulsions », séparées par des périodes d’inactivité. La fréquence et la force de ces impulsions permettent de caractériser l’expression d’un gène donné à l’échelle d’une cellule et de mieux comprendre le processus d’adaptation cellulaire impliquant ce gène. En particulier, il est important d’identifier ces caractéristiques lorsque le gène est exprimé au niveau basal – c’est-à-dire lorsque les conditions ne nécessitent pas son expression – car les effets de la stochasticité sont a priori les plus marqués (puisque dans ces conditions le nombre de molécules impliquées dans l’expression est plus faible). Ceci permet de comprendre comment la sélection naturelle a « préparé » au mieux la population cellulaire à s’adapter à la survenue d’une condition environnementale dans laquelle ce gène donné devra être exprimé.
Ce travail a permis la mise au point d’une méthode puissante d’exploration de la part aléatoire de l’expression génétique à l’échelle d’une cellule bactérienne (utilisable aussi pour des cellules eucaryotes). Ce type de mesure permet d’affiner la modélisation de l’expression des gènes et donc d’une part de comprendre, et d’autre part de prédire plus précisément leur comportement selon les conditions environnementales. Par ailleurs, dans une perspective de biologie synthétique, il est important de pouvoir associer à tel mécanisme de contrôle de l’expression génétique un profil de variation de cette expression entre chaque cellule d’une même population clonale, c’est-à-dire contenant exactement la même information génétique.
INRA
|
|
|
|
|
|
|
|
Des chercheurs de l’Inserm et du CNRS au sein de l’Unité 960 ("Laboratoire de neurosciences cognitives") viennent de mettre en évidence qu’une seule anomalie dans une région cérébrale bien précise : le cortex auditif, pourrait être à l'origine des trois manifestations principales de la dyslexie : réussir à manipuler mentalement des sons de parole, difficultés de mémorisation à court terme (capacité à répéter une liste de mots par exemple), et un ralentissement de la capacité de nommer rapidement des séries d’images. Les résultats de ces travaux sont publiés dans la revue Neuron datée du 21 décembre.
Si la compréhension du message écrit est le but de l’apprentissage de la lecture, l’identification des mots est indispensable à cette compréhension. La dyslexie se manifeste chez un enfant, après le début de l’apprentissage de la lecture, par l’absence de maîtrise des correspondances entre les graphèmes (lettres ou groupes de lettres) et les phonèmes (sons de la parole). La persistance du trouble caractérise la dyslexie. Une anomalie du développement d’aires cérébrales normalement impliquées dans la représentation et le traitement des sons de la parole (la phonologie) est la plus fréquemment rencontrée et constitue l’hypothèse majoritairement admise pour la dyslexie.
L’activité cérébrale de 44 participants adultes, dont 23 dyslexiques, a été enregistrée grâce à la magnétoencéphalographie (MEG) en réponse à un bruit modulé en amplitude à un rythme variant linéairement de 10 à 80 Hz. Un tel son engendre une réponse corticale auditive dont la fréquence est calée sur le rythme du son, mais cette réponse est plus forte à la fréquence à laquelle le cortex tend à osciller spontanément. Après une reconstruction de source du signal MEG, une analyse temps-fréquence des réponses corticales auditives a été réalisée afin de comparer les profils de réponse dans cortex auditifs droit et gauche, et entre les participants dyslexiques et non dyslexiques (contrôles).
Les chercheurs ont montré chez les dyslexiques une sensibilité réduite du cortex auditif gauche aux sons modulés autour de 30 Hz. La réponse corticale à ces fréquences serait nécessaire au découpage de la parole en unités linguistiques pouvant être associées aux graphèmes. En effet, le défaut de sensibilité aux fréquences de modulation situées autour de 30 Hz corrèle avec les difficultés de traitement phonologique et la dénomination rapide d’images. Les dyslexiques montrent en revanche une réponse corticale accrue aux modulations d’amplitude des sons situées au-delà de 40 Hz. Cette particularité est associée à un déficit de mémoire phonologique. Ces données suggèrent qu'une seule anomalie de résonance du cortex auditif avec la parole serait à l’origine des trois facettes principales de la dyslexie.
Inserm
|
|
|
|
|
|
|
|
D’une certaine manière, certains agents chimiothérapeutiques convertissent les cellules tumorales en vaccin thérapeutique grâce à l’induction de la mort cellulaire immunogénique. Pour être immunogénique, la mort des cellules cancéreuses doit être précédée par l’autophagie, une dégradation partielle des cellules suite à des stress externes, notamment provoqués par les traitements anticancéreux.
Les cellules tumorales mourantes libèrent des messages d’alerte, dont de l’ATP (molécules de stockage d’énergie), recrutant ainsi les cellules immunitaires et permettant une réponse ciblée contre les cellules cancéreuses encore présentes. En effet l’ATP extracellulaire est responsable de l’attraction des cellules dendritiques, les sentinelles du système immunitaire, au sein de la tumeur. Celles-ci alertent et activent les lymphocytes T, qui sont alors capables de s’attaquer spécifiquement aux cellules tumorales restantes.
Cette découverte ouvre un nouveau champ de recherche sur le lien entre chimiothérapie et la réponse immunitaire spécifique anti-tumorale. « Nos résultats montrent que l’autophagie des cellules tumorales est essentielle pour alerter le système immunitaire du patient », explique Guido Kroemer.
Il faut savoir que l’autophagie est souvent supprimée dans les cellules tumorales, ce qui inhibe la libération d’ATP par les cellules tumorales mourantes et réduit donc l’efficacité thérapeutique au niveau immunitaire. Les scientifiques ont trouvé une stratégie pour augmenter la réponse thérapeutique dans ces cas. En inhibant l’enzyme qui dégrade l’ATP extracellulaire, ils ont provoqué l’augmentation de la concentration de ces molécules énergétiques au sein de la tumeur. Ils ont également observé un rétablissement du recrutement des cellules immunitaires et une amélioration des effets de la chimiothérapie suite au rétablissement de concentrations élevées d’ATP extracellulaire. Cela pourrait être une piste de traitement supplémentaire pour les patients dont le cancer ne présente peu ou pas d’autophagie. Il reste donc à évaluer de tels traitements hautement expérimentaux et efficaces - chez la souris – dans des essais cliniques chez l’homme.
Inserm
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Aux États-Unis, le gouvernement vient de délivrer un brevet à Google pour sa technologie de voiture sans conducteur. Il décrit comment un véhicule peut se stationner de façon autonome et obtenir des informations en décryptant un code-barres 2D directement peint sur la route.
Après avoir parcouru 322.000 kilomètres sans causer d’accident depuis octobre 2010, la voiture sans chauffeur de Google est désormais bien loin de la science-fiction. Equipés de caméras vidéo, de capteurs et d’un télémètre laser pour mesurer les distances et se faufiler dans le trafic routier, ces prototypes se mêlent tout en sécurité à la circulation. Pour le coup, la firme de Mountain View multiplie le dépôt de brevets liés à son invention.
Ainsi, le 13 décembre, les autorités américaines ont délivré le brevet déposé en mai dernier par cinq chercheurs de Google. Ce document décrit la technologie permettant de passer d'un mode de conduite manuel au pilotage automatisé du véhicule. La voiture doit savoir déterminer quand elle peut prendre les commandes, mais aussi où elle se trouve physiquement et quelle sera sa prochaine destination. Concrètement, après avoir déposé son conducteur quelque part, elle peut rentrer toute seule à la maison pour être utilisée par un autre membre de la famille. Car, pour Sebastian Thrun, le responsable du projet, « les villes sont pleines de voitures stationnées. J’estime qu’un véhicule est en moyenne immobile 96 % de sa durée de vie. Cette situation conduit à un monde rempli de voitures sous-employées et des places de stationnement occupées ».
- La voiture lit le code-barres pour se garer
Le brevet, intitulé Transitioning a Mixed-mode Vehicle to Autonomous Mode, explique que deux types de capteurs pourraient être utilisés pour trouver une place de parking disponible et y garer l’auto automatiquement. Le premier chercherait une « bande d’atterrissage » permettant de savoir si la place convient au véhicule et si l’environnement lui permet exécuter la manœuvre de stationnement de façon autonome. Ensuite, le second capteur entrerait en scène pour que l’auto puisse analyser une sorte de flash code géant peint directement sur la route ou sur le sol d’un garage. Ce code détaillerait les coordonnées géographiques de l'endroit et de nombreuses autres informations, la durée de stationnement maximum, par exemple, ou encore l’emplacement des parkings les plus proches. Une fois l’information mémorisée, l’auto sait précisément où elle se trouve pour débuter un nouveau trajet sans occupant.
- Google veut monter à bord de la voiture du futur
On notera que dans le brevet, les termes de bande ou de piste d’atterrissage, utilisés par les chercheurs de Google, ne sont pas très précis. Et pour décrire les différents principes de fonctionnement, les chercheurs sont restés très vagues. Par exemple, le brevet précise, qu’au lieu du code barre 2D (QR code), il peut aussi s’agir d’un système de communication par ondes radio émises à partir d’une balise. Bref, un constructeur automobile qui souhaiterait développer une nouvelle technologie de conduite autonome risquerait fort de tomber dans le champ d’un des brevets de Google. Pratique pour le géant d’Internet, qui pourrait très bien négocier en échange, une contrepartie made in Google pour les éléments multimédia du véhicule.
Futura Sciences
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|