|
|
|
|
|
NUMERO 396 |
|
|
|
|
|
|
|
Edition du 07 Septembre 2006
|
|
|
|
|
Edito
Nos démocraties en sont restées aux idées du XVIIIe siècle
Ce qui était annoncé, est arrivé. Depuis le mercredi 30 août 2006, le moteur de recherche Google propose aux internautes de télécharger gratuitement sur Internet les grands classiques de la littérature mondiale tombés dans le domaine public. Même si cette date sera noyée par les observateurs et demain par les historiens parmi les très nombreuses qui ont déjà bouleversé notre monde depuis 1989, il est indéniable qu'elle restera comme un moment fort de notre entrée dans la société de l'information. Sans craindre l'erreur, nous pouvons affirmer que nous venons de quitter la galaxie de Gutenberg pour entrer dans celle de l'immatériel. Le papier, l'encre, la presse, la distribution de ces objets matériels sont dorénavant devenus obsolètes, l'instantané, l'universalité et la gratuité d'accès direct les ont remplacés. Mais quel dommage que ce soit une société privée qui se soit emparée d'un tel flambeau et que les Démocraties n'aient pas pris conscience que c'est là qu'allait se jouer leur Destin. En effet, l'activité humaine pouvant se résumer dorénavant, pour les siècles à venir, à sa capacité d'ajouter du savoir à un signal, les peuples ressentent, bien que certains aimeraient encore en bénéficier pendant quelques décennies, que leur avenir ne passe plus par des outils de production où le muscle et l'habileté ont joué un rôle si important depuis des siècles. Ils prennent conscience que la phase d'acquisition des connaissances sera encore bien plus déterminante qu'à l'époque de Jules Ferry. Pour trouver sa place dans la société du futur, chacun devra certes savoir lire, écrire et compter mais, de plus, le citoyen du futur devra avoir des idées nouvelles. Ce qui comptera dans la société du futur sera non plus de montrer de gros muscles ou de passer par le chas de l'aiguille sans trembler mais bien d'avoir la capacité permanente d'imaginer, d'innover, d'inventer. Tous les biens matériels étant par nature en nombre limité sur notre Terre, ce n'est donc pas avec eux que nous pourrons apporter le bonheur à tous les humains, et ce d'autant plus que nous sommes de plus en plus nombreux. Ce sont donc bien les idées, les concepts immatériels qui, eux, peuvent être produits en quantités illimitées, qui feront l'avenir de l'humanité. Cela est d'autant plus vrai que lorsque vous donnez une bonne idée à 1.000 personnes, alors vous enrichissez ces 1.000 personnes d'un savoir nouveau et ce, sans vous appauvrir vous-même. Nos Démocraties en sont encore restées aux idées du 18e siècle. Elles pensent, pour sortir du terrible pouvoir par la violence qui dominait l'humanité depuis son origine (et qui malheureusement dans certaines parties du Monde est toujours le pouvoir dominant) que le pouvoir par l'argent apporte le bonheur aux peuples.Adam Smith et Karl Marx, en observant le Monde d'une position antagoniste, n'ont pas dit autre chose. Mais comment pourrait-on promettre le Bonheur aux milliards d'êtres humains quand on sait pertinemment que l'argent avec lequel on promet de les récompenser est en quantité limitée et insuffisante. Un nombre grandissant d'êtres humains ressentent que l'Humanité va devoir s'extraire de ce pouvoir par l'Argent pour qu'un nouveau pouvoir, le pouvoir par le Savoir, prenne enfin toute sa place. Si des hommes éclairés, dans toutes les Démocraties mondiales, ont commencé à prendre conscience de cette mutation profonde, malheureusement, cette prise de conscience ne s'est pas encore fortement traduite dans les Lois, Décrets et Règlements divers édictés par les gouvernements et parlements de ces démocraties. Alors que les idées circulent maintenant à la vitesse de la lumière, nos Démocraties, empêtrées dans la rigidité des règles, n'arrivent plus à réagir, en temps réel, aux évolutions de notre Monde. Certes, des gouvernants, qui ont tout à fait conscience des profondes mutations de notre Monde, annoncent du haut de leur tribune qu'avec eux tout va changer et quelques mois plus tard, quand la machine étatique s'est emparée de ces belles idées, venant pourtant du sommet de la pyramide, le peuple constate qu'une fois encore la montagne n'a accouché que d'une souris. Et pendant ce temps là, une société créée par quelques copains, il n'y a même pas 10 ans, met méthodiquement en place toutes les pièces pour damer le pion à nos Démocraties. Et parmi toutes ces pièces, l'accès gratuit à tout le capital de connaissances acquises par l'Humanité depuis des siècles est une pièce maîtresse. Pourquoi diable nos Démocraties n'ont-elles pas su à temps faire cela alors que la technique, avec Internet, le permet depuis une dizaine d'années ? Votre serviteur, en 1994, est intervenu à la tribune du Sénat, en sa qualité de Président d'un groupe de travail (avec le Sénateur Pierre Laffitte) dont les conclusions allaient amener le gouvernement d'alors à créer « La Cinquième », Chaîne de télévision, la Chaîne d' « accès au Savoir » (qui oublie trop souvent, maintenant, sa mission d'origine pour tomber, comme les autres, dans des compétitions mercantilistes !). Dans cette intervention, alors qu'allait être inaugurée quelques semaines plus tard la nouvelle Bibliothèque Nationale de France édifiée par Dominique Perrault à la demande expresse de François Mitterrand, je demandais solennellement au Gouvernement que toutes les bibliothèques, les vidéothèques, les filmathèques publiques de France aient pour obligation de numériser toutes les oeuvres qu'elles détenaient, et tombées dans le domaine public, et que ces reproductions numériques soient mises gratuitement à la disposition de tous les Français. L'adhésion à mon idée fut unanime, que ce soit sur les bancs de Droite, du Centre ou de la Gauche du Sénat. Même le Ministre de la Culture de l'époque, M. Jacques Toubon, me dit combien il trouvait cette idée intéressante. En quittant l'hémicycle, je pensais avoir fait du bon travail. Et pourtant, mois après mois, j'ai dû prendre conscience que les autorités en place, chacune bien au chaud dans son cocon, ne tenaient pas du tout à ouvrir leurs fenêtres pour laisser y entrer ce vent frais. Hormis une certaine considération, rien n'est sorti de cette volonté unanime... Nous étions alors en 1994. Ce n'est qu'un an plus tard qu'est né Google. Aujourd'hui, si les Français veulent lire dans leur intégralité et gratuitement les oeuvres de Victor Hugo, de Flaubert, de Stendhal, c'est grâce à cette société privée qu'ils peuvent le faire et non grâce au gouvernement de la France. Comme c'est dommage... René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le Conseil constitutionnel a validé, dans sa décision 2006-540 du 27-07-2006 l'essentiel de la Loi du 1-08-2006 relative aux droits d'auteurs dans la société de l'information qui est entrée officiellement en vigueur le 3 août avec sa publication au Journal Officiel. Le Conseil constitutionnel a toutefois censuré quatre articles de cette loi. Le groupe socialiste de l'Assemblée avait déposé le 7 juillet un recours sur ce texte auquel s'étaient associés les trois députés Verts, quatre membres du groupe communiste et républicain et deux UDF, dont François Bayrou, président de la formation centriste. Le Conseil a rejeté "la plus grande partie de l'argumentation des requérants" et déclaré anti-constitutionnels les articles 21, 22, 23 et 24, précise un communiqué. Le Conseil constitutionnel a estimé que la notion « d'interopérabilité », c'est-à-dire la possibilité de lire sur le support de son choix une oeuvre achetée légalement, n'était pas définie par le texte de loi « en des termes clairs et précis ». Les articles qui exonéraient de responsabilité pénale ceux qui contourneraient les systèmes de protection techniques des oeuvres (DRM) ont donc été censurés. Pour les juges constitutionnels, il appartiendra à une future autorité de régulation de veiller à la mise en oeuvre de cette interopérabilité et de demander, moyennant indemnisation, aux industriels de permettre « l'accès aux informations essentielles », relatives aux DRM. Cette décision "n'affecte en rien la capacité de l'Autorité de régulation des mesures techniques créée par la loi à mettre en oeuvre l'interopérabilité", a toutefois assuré le ministre de la Culture. Cette Autorité sera "mise en place très rapidement dès la rentrée", a-t-il précisé. Les modifications décidées par le Conseil constitutionnel Le premier point concerne l'article 21 (l'amendement "Vivendi Universal"), sur les sanctions encourues par les éditeurs de logiciels peer-to-peer (3 ans d'emprisonnement et 300.000 euros d'amende). Son dernier alinéa a été supprimé par le Conseil constitutionnel. Il indiquait que les sanctions n'étaient pas applicables «aux logiciels destinés au travail collaboratif, à la recherche ou à l'échange de fichiers» non soumis au droit d'auteur. Selon les Sages, cette mesure institue «une cause d'exonération» des sanctions dans des «conditions imprécises et discriminatoires. Le deuxième point porte sur les articles 22 et 23, qui précisent que le détournement des fameuses mesures de protection (MTP) contre la copie est interdit. Le Parlement avait instauré une exception à cette interdiction, pour «les actes réalisés à des fins d'interopérabilité». C'est cette disposition qui a été censurée par le Conseil, jugeant «imprécise» la définition d'interopérabilité. Il est donc désormais interdit de détourner une mesure de protection, même si c'est nécessaire pour pouvoir lire correctement un fichier légalement acheté. Le troisième point, de loin le plus important, annule l'article 24 qui définit l'échange de fichiers protégés sur les réseaux peer-to-peer comme une simple contravention (entre 38 et 150 euros d'amende). Les sanctions pour les internautes pris sur le fait devaient être précisées par décret, par le ministère de la Culture. Pour les Sages, la qualification en tant que contravention est «contraire au principe d'égalité devant la loi». En conséquence, le téléchargement et la mise à disposition sur les réseaux peer-to-peer seront à nouveau assimilés à des actes de contrefaçon. Cette décision de Conseil constitutionnel entraîne donc un net durcissement de la loi puisque, pour ces délits, les internautes risquent jusqu'à 3 ans de prison et 300.000 euros d'amende. Le Conseil a par ailleurs émis plusieurs «réserves d'interprétation». La principale concerne l'Autorité de régulation des mesures techniques, censée trancher les litiges sur l'interopérabilité entre plates-formes de distribution et éditeurs de DRM (gestion numérique des droits). Dans l'article 14, le texte précise que cette Autorité peut forcer un éditeur à fournir au requérant les informations nécessaires à l'interopérabilité. Rappelons que l'examen du projet de loi sur les droits d'auteur en ligne, défendu par le ministre de la Culture, Renaud Donnedieu de Vabres, avait été des plus mouvementé à l'Assemblée. Le gouvernement avait même dû interrompre son examen à la mi-décembre. Contre son avis, des amendements avaient été adoptés ouvrant la voie à la "licence globale", un dispositif qui consiste à légaliser le téléchargement sur le Net pour usage privé en contrepartie d'une rémunération forfaitaire versée aux auteurs. Le texte adopté le 30 juin prévoit notamment une série de sanctions graduées pour les internautes. Il prévoit une amende de 38 euros pour ceux qui téléchargent illégalement et de 150 euros pour ceux qui mettent à disposition une oeuvre sur le Net sans l'accord des détenteurs de droits. Le texte comporte également des sanctions, pouvant aller jusqu'à de la prison, pour les auteurs de contournement des mesures techniques de protection ou Digital Rights Management (DRM) contre le téléchargement illégal. Dans un communiqué du 28 juillet, le ministre de la Culture, qui se déclare satisfait de la validation de « l"essentiel » du projet de loi, réaffirme toutefois « qu"il est nécessaire que les sanctions soient justes et proportionnées (...) et annonce qu"il va saisir le Garde des Sceaux afin que les poursuites soient orientées vers les cas les plus graves ». Lionel Thoumyre, coordinateur de l'Alliance Public-Artistes (un collectif qui regroupe des organisations telles que l"UFC-Que Choisir, la Spedidam, l'Adami ou l"association Les Audionautes), estime que « la mise en oeuvre de l"interopérabilité est réduite à une peau de chagrin » et que, au mieux, dans la loi, « la référence à ce concept n"est désormais que symbolique ». En clair, selon lui, avec le projet de loi DADVSI, Apple, Sony et microsoft voient leurs positions renforcées. Il estime par ailleurs qu'avec le renforcement de la loi, "dix millions d'internautes sont à nouveau sous la menace de la prison". Pour l'association des audionautes (ADA), "cette décision fait de la loi DADVSI le texte le plus dur jamais passé dans le monde". "La décision du Conseil a ramené le curseur au point où se trouvait le projet de loi le 21 décembre 2005, avant d'être débattu par le parlement", assure Bruno Ory-Lavollée, directeur de la Société civile pour l'Administration des Droits des Artistes et Musiciens (Adami). Pour lui, il s'agit d'un retour "consternant" à la case départ. Dans un communiqué, l'association UFC- Que Choisir affirme, elle, que la décision rendue par le Conseil constitutionnel « a censuré les dispositions du texte les moins défavorables aux consommateurs, ce qui aboutit à renforcer la logique inadmissible du “tout répressif” du projet de loi ». Quant à l'industrie musicale, elle se félicite logiquement, à travers le SNEP (Syndicat National de l'Edition Phonographique), de l'importance que le Conseil attache au respect [...] de la propriété littéraire et artistique". Pour sa part le Sev (Syndicat de l'édition vidéo) souhaite que "la loi soit promulguée dans les meilleurs délais."
|
|
|
|
|
|
|
|
Lors de l'ICAD 2006 (International Conference on Alzheimer's Disease and Related Disorders), qui s'est déroulée le 17 juillet dernier, les chercheurs ont affirmé que certains jeux vidéo permettent de détecter très tôt l'apparition de maladies neuro-dégénératived, comme la maladie d'Alzheimer. Selon certains chercheurs, des jeux vidéo basiques seraient en mesure de détecter la maladie d'Alzheimer bien avant la manifestation des premiers symptômes visibles. Cette détection précoce permettrait aux médecins de mettre en oeuvre des traitements beaucoup plus tôt. Les neurologues voient cette méthode comme un nouveau moyen de diagnostiquer le mal dès ses débuts : « Pour le moment, on utilise des tests classiques de mémoire, scanners du cerveau, ou marqueurs biologiques. Il y a beaucoup de données intéressantes, mais pas de réponses solides », explique Holly Jimison. Dans un communiqué officiel, Holly Jimison et son équipe de chercheurs déclarent avoir créé des jeux vidéo susceptibles d'aider au diagnostic des capacités cognitives du patient. Ils ont notamment programmé une version spéciale du FreeCell de Microsoft, qu'ils ont testé sur 9 patients du troisième âge pendant plusieurs semaines. Trois patients avaient une maladie de dégénérescence cognitive, ils furent aisément reconnus en examinant le nombre de coups utilisés pour terminer le jeu par rapport à un résultat minimal théorique, calculé par ordinateur. « C'est un petit nombre de patients, et ce sont quelques tout premiers résultats, mais nous pensons que nous tenons une technique prometteuse de diagnostic » expliquent les chercheurs. En surveillant des résultats quotidiens, la détection serait en effet très rapide et précise, ajoute le communiqué. MNT SD PC
|
|
|
|
|
|
|
|
La dernière invention de Sony est sortie très discrètement en France au début de l'été. Son nom : LocationFree. Sa fonction : permettre à un utilisateur de regarder la télévision depuis son ordinateur portable ou depuis sa console de jeux, où qu'il se trouve, dans une autre pièce de l'appartement, à l'autre bout de la ville, à l'autre bout du monde. Mais attention, pas n'importe quelle télévision : sa télévision à soi, celle du salon, avec tous les appareils qui y sont raccordés, magnétoscopes, lecteurs, graveurs de DVD, bouquets numériques. Il suffit pour cela de disposer d'une connexion Internet haut débit à domicile et de brancher sa LocationFree sur la télé. A peine plus volumineuse qu'un livre de poche, la station, qui se présente sous la forme d'un petit boîtier noir et acier brossé, se charge du reste. Par exemple : votre téléviseur est installé dans le salon, mais vous souhaitez regarder un programme depuis votre chambre. Vous pouvez certes vous équiper d'un second poste. Avec la LocationFree, il vous suffit d'allumer votre ordinateur portable ou bien votre PC de bureau, ou encore la console de jeux des ados pour regarder toutes les chaînes auxquelles vous êtes abonné, ou visionner le DVD logé dans votre lecteur. En fait, la LocationFree se comporte comme une borne Wi-Fi et se charge de diffuser le flux vidéo. Toutes les machines sur lesquelles on aura installé préalablement le logiciel fourni peuvent donc capter les programmes. Ce n'est pas tout. La communication est à double sens. En effet, il est également possible, grâce à un petit module infrarouge relié à la LocationFree, de changer de chaîne, de mettre sur pause la lecture d'un DVD, de lancer un enregistrement. Sur son site Web, Sony met à disposition, en téléchargement, les codes infrarouges de la plupart des marques de télécommandes. Mais le plus spectaculaire reste la visualisation à distance. Car, si l'on dispose d'une connexion Internet haut débit, il est également possible de se connecter à la LocationFree de n'importe où sur la planète, et d'utiliser toutes les fonctions installées chez soi. Depuis une chambre d'hôtel à Tokyo, d'un aéroport en transit, à la terrasse d'un café. A condition toutefois d'avoir pris la précaution de laisser son téléviseur en mode "veille" pour pouvoir l'allumer. Et le téléviseur s'allumera dans votre salon, pouvant par la même occasion éloigner d'éventuels cambrioleurs... A terme, l'objectif de Satoru Maeda, le père du projet chez Sony, est de pouvoir raccorder tout appareil doté d'un écran et d'une fonction de connexion à distance, à la LocationFree. Sony n'a pas non plus oublié la télévision en mobilité et Sony-Ericsson travaille déjà sur un téléphone portable compatible. LM
|
|
|
|
|
|
|
|
Sony a annoncé le 10 août le lancement d'un nouveau terminal de communication sans fil. Le Mylo (contraction de "my life online") de Sony, qui devrait être disponible en septembre au prix de 350$, est le premier produit de son genre utilisant les réseaux Wi-Fi. Comme il ne s'agit pas d'un téléphone mobile, aucuns frais mensuels ne s'appliquent. Ce terminal, muni d'un écran de 6 cm de diagonale et d'un clavier coulissant, pourra permettre de recevoir et d'envoyer des courriels par Internet et devrait également permettre la téléphonie sur IP. Mylo permettra également d'utiliser les principales messageries instantanées de Yahoo, Google, AOL et Skype qui rencontrent un succès croissant, notamment auprès des jeunes utilisateurs. Enfin ce terminal hybride d'un nouveau genre pourra évidemment servir de lecteur multimédia portatif pour écouter de la musique (sous forme de fichiers MP3) ou visionner photos et vidéos stockées sur le disque interne de mémoire flash de 1 Go. Le succès phénoménal de l'iPod n' pas échappé à Sony ! Reste à voir les réactions des consommateurs face à un tel produit. Sony
|
|
|
|
|
|
|
|
Pas toujours facile de se motiver pour aller au petit matin acheter son journal préféré. Dorénavant, certains lecteurs privilégiés n'auront plus à se déplacer. Le groupe Lagardère (propriétaire d'Hachette Filipacchi), par le biais de sa filiale VirginMega, lance, en bêta, son kiosque numérique. En se connectant sur le site de téléchargement virginmega.fr, les internautes ont accès à un panel de plus de 200 revues (Journal du Dimanche, Paris Match, Stuff...). Un service similaire est également disponible chez le groupe de presse Cyber Press Publishing (Cinélive, Rock Sound...) à l'adresse monkiosque.fr. Pour développer leur kiosque numérique, les deux éditeurs n'ont pas pris les mêmes options. Le service développé par VirginMega n'est disponible qu'après le téléchargement d'un player. Celui-ci ne fonctionne que sous Windows. Chez Cyber Press Publishing en revanche, la plate-forme est plus ouverte. Elle fonctionne sous Windows et Mac OS, et sans avoir à télécharger d'application : les journaux ne quittent pas les serveurs de Cyber Press. Ce choix implique que la lecture des magazines n'est possible que lorsque l'ordinateur est connecté au Net. Chez VirginMega, les revues sont stockées sur la machine de l'internaute. Le client a ainsi la possibilité de se plonger dans leur lecture quand il le désire. Pour son concurrent, l'accès au périodique est limité à une durée de soixante jours à partir de la date d'achat. Dans un cas comme dans l'autre, l'accès au kiosque nécessite au préalable une inscription. Un mot de passe pour accéder au service est alors envoyé par e-mail au futur lecteur. Ceci fait, ce dernier choisit son magazine qu'il paie par carte bancaire chez Virgin. Côté tarif, les formats numériques coûtent moins chers que leur homologues papier de Cyber Press Publishing. A l'inverse, ils sont facturés la même somme par VirginMega, sauf dans le cadre d'un abonnement. En s'abonnant sur VirginMega, l'internaute reçoit tous les mois automatiquement son magazine dématérialisé directement sur son ordinateur, dès publication. A tout moment, il peut choisir de mettre fin à sa souscription. Un forfait de 9,90 euros mensuels donne également la possibilité de recevoir quatre magazines. Les deux prestataires ont développé des interfaces agréables et fluides donnant à l'écran un rendu similaire à celui d'une version papier. Le lecteur feuillette les pages en cliquant sur des onglets. Ou arrive directement à une rubrique par le sommaire. Outre un texte papier avec photo, Internet permet d'ajouter du contenu multimédia comme des vidéos, de la musique ou encore des liens Internet. Toutes les pages sont imprimables. Le lecteur des magazines de Cyber Press peut choisir de partager sa lecture avec ses amis. Ces derniers reçoivent un e-mail les invitant à se connecter au site pour visualiser l'article correspondant aux pages lues par le possesseur de la revue numérique. Cette fonction n'est pas disponible chez VirginMega dont le service est encore en bêta. Les revues numériques sont conçues pour une lecture sur écran. Mais un transfert sur clé USB devrait être prochainement disponible sur le site de VirginMega, pour emporter sa revue électronique dans sa poche. OINet
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Le laboratoire de robotique de l'Université Carnegie Mellon, dirigé par le Professeur Ralph Hollis, a mis au point un robot filiforme de 1m50, qui se balance délicatement et ressemble à une boule de quilles. Baptisé "Ballbot", ce robot au squelette d'aluminium oscille doucement sur le plancher du laboratoire et semble prête à tomber à tout moment. Toutefois, tel un animal de cirque se balançant sur un ballon de plage, Ballbot demeure stable, ses moteurs en action le maintenant à la verticale. Ses concepteurs affirment que des robots comme Ballbot pourront un jour aider à fournir des soins et offrir une forme de compagnonnage aux personnes invalides et à la population vieillissante des États-Unis. «Nous sommes passés maîtres dans l'art de fabriquer des machines qui peuvent calculer et jouer aux échecs de façon admirable», dit Louis Whitcomb, un professeur d'ingénierie mécanique de l'Université Johns Hopkins. «Nous sommes cependant des néophytes dans la fabrication de machines capables d'interagir physiquement avec des personnes, des assistants en mesure d'accomplir certaines de nos tâches.» MSL
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Annoncé en novembre 2005 par l'entreprise Ocean Power Delivery (ODP), basée à Edinbourg, la construction du premier parc maritime utilisant l'énergie des vagues va prochainement démarrer au Portugal. Lauréat de l'appel d'offres promulgué par la société Enersis, le chantier naval de Peniche a déjà reçu les trois convertisseurs "Pelamis", permettant de produire 2,25 MW d'électricité à partir de la houle pour alimenter 1.500 foyers. Leur installation en mer, à 5 km des côtes de Póvoa de Varzim (nord du Portugal), a débuté en août. L'investissement, majoritairement privé (75 %), représente 8,5 millions d'euros pour ces trois premiers convertisseurs. Le coût de cette énergie renouvelable a dores et déjà été fixé à 248 euros le MWatt par heure. Officiellement lancé le 14 mai dernier, ce projet a été présenté à plusieurs responsables politiques portugais avec l'ambition, pour ses promoteurs, de créer à terme un cluster industriel pour l'énergie maritime au Portugal. Enersis prévoit ainsi de commander trente unités supplémentaires du générateur "Pelamis" pour atteindre une production électrique de 20 MW d'ici 2008, représentant un investissement global de 70 millions d'euros. Selon l'entreprise, la création d'un cluster dans ce domaine pourrait avoir une ampleur considérable : près de 40.000 emplois pourraient être créés au Portugal pour répondre à une partie des attentes d'un marché mondial estimé à environ 325 milliards d'euros. Rappelons que le convertisseur "Pelamis", développé par ODP, repose sur une des technologies les plus performantes actuellement. La première structure devant être installée au Portugal est composée de trois cylindres semi émergés de 50 mètres de longueur et de 3,5 mètres de diamètre, reliés entre eux. Le "Pelamis" est positionné dans la direction de propagation de la houle et dans chaque module se trouve un système de conversion d'énergie. La houle agit ainsi sur des vérins hydrauliques qui envoient un fluide haute pression vers un moteur hydraulique actionnant une turbine. L'électricité produite est acheminée jusqu'à la côte par des câbles situés dans les fonds marins. Un convertisseur "Pelamis" génère 750 kW, correspondant à la consommation électrique moyenne de 500 foyers. Mais «à terme, ces fermes houlomotrices sont prévues pour fonctionner avec 40 machines et produire 30 MW, pour alimenter 20 000 foyers. Cette première ferme houlomotrice a pu voir le jour grâce au tarif de rachat instauré par le gouvernement portugais (24,5 centimes d'euros le kWh). Car aujourd'hui, l'énergie houlomotrice est encore au moins trois fois plus chère que l'éolien, avec un coût de production de 22 centimes du kWh. Be Portugal OPD
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Au terme d'un débat passionné de plusieurs semaines et d'un ultime rebondissement, l'assemblée générale de l'Union astronomique internationale, réunie à Prague, a finalement désavoué, le 24 août, ses commissions d'experts en retirant à Pluton son statut de planète et en ramenant ainsi à huit le nombre de planètes dans notre système solaire A l'issue d'un vote historique à main levée, un millier d'astronomes venus du monde entier ont refusé un amendement capital de l'exécutif de l'UAI qui proposait de distinguer deux catégories de planètes : les "planètes classiques", au nombre immuable de huit, et les "planètes naines", dont le nombre ne cesse de s'accroître à mesure que la résolution des télescopes augmente. Le résultat de ce vote est sans appel et a le mérite de la clarté : une planète naine - catégorie à laquelle appartiennent Pluton, mais aussi Cérès et la mystérieuse UB313 découverte il y a trois ans - ne peut être considérée comme une planète à part entière. Le Système solaire est donc désormais simplement composé des planètes Mercure, Vénus, Terre, Mars, Jupiter, Saturne, Uranus et Neptune. Pour l'UAI, les huit planètes historiques répondent aux conditions suivantes : elles orbitent autour du Soleil, ont "une masse suffisante pour que sa gravité l'emporte sur les forces de cohésion du corps solide et le maintienne en équilibre hydrostatique, sous une forme presque sphérique" et ont "éliminé tout corps susceptible de se déplacer sur une orbite proche". En revanche, les planètes naines n'ont pas la gravité suffisante pour faire le vide autour d'elles. Cérès est ainsi noyée au milieu des milliers d'astéroïdes orbitant entre Mars et Jupiter. Pluton et UB313 naviguent dans une zone riche en débris cosmiques, la ceinture de Kuiper. Le projet initial de la direction de l'UAI prévoyait d'élargir le système solaire à 12 planètes : les 8 "vraies" planètes, plus les trois naines, ainsi que Charon, qui reste cantonné dans son statut actuel de lune de Pluton. Découverte par un astronome américain, Clyde Tombaugh, Pluton posait de nombreux problèmes à la communauté scientifique : elle est en effet très différente des autres corps du système solaire, qui sont rocheux (pour les plus proches du soleil) ou gazeux (pour les plus éloignés) et orbitent de manière circulaire autour de notre astre. Planète iconoclaste, Pluton est, elle, formée de glace et suit une orbite très longue et excentrée puisqu'elle met 247 années pour faire le tour du Soleil. Si Pluton obtint son statut de planète, c'est parce qu'à l'époque de sa découverte, dans les années 1930, les astronomes la croyaient aussi grande que la Terre alors qu'elle est en réalité beaucoup plus petite et n'atteint même pas la taille de notre lune. Elle conservera néanmoins son statut de planète parce qu'elle resta longtemps le seul corps céleste connu parmi les objets qui gravitent dans la Ceinture de Kuiper, cette zone mystérieuse au-delà de Neptune où l'on trouve des milliers de comètes et objets planétaires. Mais dans les années 1990, des télescopes plus puissants révélèrent la présence de nombreux corps célestes semblables à Pluton dans cette partie du système solaire. Enfin, en 2003, la découverte de UB313, astre légèrement plus grand que Pluton, dans la ceinture de Kuiper, porta le coup de grâce au statut de planète de Pluton. Dernière précision de taille : cette nouvelle définition proposée par l'assemblée générale de l'UAI ne s'applique qu'au seul système solaire, et non aux nombreuses planètes extrasolaires (près de deux cents à ce jour) que l'on découvre régulièrement autour d'autres étoiles. Il y a donc fort à parier que ce débat sur la définition de ce qu'est exactement une planète n'a pas fini d'agiter la communauté scientifique. Article @RTFlash UAI UAI
|
|
|
|
|
|
|
|
Après un voyage de trois ans et cent millions de kilomètres, la sonde européenne Smart-1 s'est écrasée sur la Lune dimanche 3 septembre, une fin programmée par les responsables de la mission, la première du genre pour le vieux continent. Le personnel du centre de contrôle de l'ESA à Darmstadt en Allemagne a applaudi la fin de la mission, après que le responsable de la conduite des opérations, Octavio Camino-Ramos, eut lancé : "Ca y est, on est dans le lac de l'Excellence. On a atterri." La sonde, un cube d'un mètre de côté pourvu de panneaux solaires semblables à des ailes, s'est écrasée à une vitesse estimée à 7.200km/h (soit 2km/seconde) dans le lac de l'Excellence, une plaine volcanique située sur la face visible de la Lune. Il a dû creuser un cratère d'environ trois mètres sur dix. Smart-1 était en orbite depuis 16 mois autour du satellite naturel de la Terre. L'impact a eu lieu à 5h42'22" en temps universel (7h42 heure de Paris) dans une zone sombre, proche de la limite entre la face cachée et la face visible, afin que ses effets puissent être observés de manière optimale par les télescopes terrestres. Quelques minutes plus tard, on a pu voir sur un écran vidéo de la salle de contrôle un éclair brillant capté par un télescope infrarouge relayé par un observatoire à Hawaï. Smart-1 a recueilli des données sur la morphologie et la composition minéralogique de sa surface dans la lumière visible, l'infrarouge et le rayonnement X. Bernard Foing, responsable scientifique du projet à l'Agence spatiale européenne, explique que la sonde a "cartographié les cratères de petits et de grands impacts, étudié les processus volcaniques et tectoniques qui ont façonné la Lune, levé le voile sur ses pôles mystérieux et étudié des sites en vue d'une exploration future". La sonde, cube de 1 m de côté pesant quelque 350 kilos, avait été lancée le 28 septembre 2003 du centre spatial guyanais de Kourou à l'aide d'une fusée Ariane-5 et s'était inscrite sur une orbite elliptique polaire en novembre 2004. Pendant sa mission, Smart-1 a déjà permis de fournir des éléments permettant de faire avancer le débat sur l'origine de la Lune et son évolution. Ainsi, les scientifiques ont "détecté pour la première fois du calcium et du magnésium", ainsi que du silicium et de l'aluminium, "mesuré les différences de composition au niveau des pics centraux des cratères, des plaines volcaniques et des gigantesques bassins d'impact" et "cartographié l'ensemble de la surface lunaire, y compris celle de sa face cachée", a précisé l'Esa. Smart 1 a également permis de tester des innovations technologiques. La sonde était notamment propulsée par un moteur ionique fonctionnant à l'énergie solaire qui lui a permis de parcourir un million de kilomètres en ne consommant que 60 litres de carburant, du gaz xénon. Par ailleurs, une des expériences embarquées sur la sonde, OBAN, a "servi à tester un nouveau système de navigation qui permettra à de futurs véhicules spatiaux de naviguer de manière autonome, sans intervention des contrôleurs au sol", selon l'Esa. La sonde a également envoyé plus de 20.000 photos de la surface de notre satellite naturel à des résolutions jusqu'alors inédites pour cet astre, permettant de voir des détails de 40 m de côté grâce à la caméra AMIE. A l'origine, la mission ne devait durer que six mois autour de la Lune et elle a été prolongée d'un an. Outre l'étude de l'astre nocturne, elle a permis de tester un moteur ionique, mécanique ne nécessitant que très peu de carburant et qui pourrait s'avérer indispensable pour d'éventuels voyages interplanétaires. La Lune se serait formée il y a 4,5 milliards d'années suite à l'impact avec la Terre d'un astéroïde de la taille de la planète Mars. ESA
|
|
|
|
|
|
|
|
L'observation d'une collision extrêmement puissante entre deux amas de galaxies a permis aux astronomes d'observer directement, pour la première fois, la présence de matière sombre, a annoncé la Nasa. Cette observation "fournit la première preuve directe que la matière sombre doit exister, et qu'elle doit représenter la majeure partie de la matière dans l'univers", a déclaré le 21 août le Dr Douglas Clowe, chercheur à l'université de l'Arizona. Le concept de "matière sombre" remonte aux années 60, lorsque les astronomes ont réalisé que les galaxies comme notre Voie Lactée tournaient sur elles-mêmes beaucoup plus vite que leur masse connue ne le permettait. Certains scientifiques ont estimé que cela remettait en cause les lois de la gravité, et d'autres ont imaginé l'existence d'une masse encore inconnue, qualifiée de "matière sombre", présente dans les galaxies. Grâce aux données fournies essentiellement par le télescope spatial à rayons-X Chandra et les télescopes Huble et Magellan, des astronomes ont découvert et étudié un immense amas de galaxies peu après sa collision avec un plus petit. L'événement, présenté comme le plus puissant connu dans l'univers depuis le Big Bang, a eu lieu il y a 100 millions d'années, et a provoqué une explosion complète des deux systèmes de galaxies. En mesurant la répartition de la gravité dans le nouveau système, qui devrait évoluer vers une fusion des deux amas de galaxies, les chercheurs ont montré qu'elle ne coïncidait pas du tout avec celle des particules connues, essentiellement des gaz. La collision a séparé la matière "normale" connue de la matière "sombre", qui constitue la majeure partie de la masse et contrôle la gravité, ont conclu les chercheurs qui ne savent toujours pas de quoi est faite cette matière "sombre qui constitue 25 % de notre univers (le reste étant constitué pour 70 % d'énergie « sombre » contrebalançant l'effet de la gravitation et pour les 5 % restant de matière ordinaire). Nasa NS
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Juillet 2006 a été le plus chaud en Grande-Bretagne depuis 1914 avec une température moyenne de 17,8°C, nuit et jour confondus, selon les chiffres fournis par le Service météorologique britannique. Le précédent record, de 17,3°C, avait été établi en juillet 1983 et égalé en août 1995. A l'instar d'une grande partie de l'Europe, la Grande-Bretagne a connu un long épisode de canicule ces dernières semaines, avec des températures dépassant notamment les 35°C à Londres pendant plusieurs jours, mettant à mal le réseau de production d'électricité et provoquant de nombreuses pannes de courant. Le baromètre avait atteint 36,3°C le 19 juillet à Charlwood, dans le sud de Londres, reléguant aux oubliettes le précédent record pour un mois de juillet, 36° à Epson (Surrey) le 22 juillet 1911, contre une température moyenne diurne de 23°C en juillet en Grande-Bretagne. La température la plus haute jamais relevée en un point du royaume n'a cependant pas été battue. Il s'agissait de 38,5°C, enregistrés le 10 août 2003 à Brogdale (sud-est). BBC
|
|
|
|
|
|
|
|
Une équipe de recherche israélienne de l'Université Ben Gourion dans le Néguev, qui fait partie d'une équipe composée d'américains et de belges, espère transformer le mythe du contrôle du temps et des intempéries en réalité. Ce projet, qui pourrait réduire considérablement les problèmes de la faim dans le monde, se nomme "the Geshem Project" ("Geshem" qui signifie "pluie" en hébreu). La technique (un peu simplifiée) consiste à étaler une grande surface noire qui absorbe l'énergie solaire sur plusieurs kilomètres carrés. Cette énergie ainsi absorbée est ensuite réémise dans l'air afin d'augmenter la température de l'atmosphère. Cet air chaud entraîne alors une condensation d'eau suffisante pour former des nuages et produire des pluies à la demande ! Etendre ce dispositif sur 9 kilomètres carrés devrait apporter de la pluie sur une région qui s'étendrait de 40 à 100 kilomètres carrés. Les estimations sont surprenantes : une région avec 150 mm de précipitation par an pourrait atteindre jusqu'à 700 mm par an. De même, un scientifique de l'université Ben Gourion estime que cette technique pourrait augmenter de 40 % le rendement d'une culture. Le prix de l'installation est de 80 millions d'euros (prix d'une usine de dessalement). Néanmoins, elle fonctionne à l'énergie solaire qui, elle, est gratuite. Un projet de simulation réelle est prévu très prochainement dans le désert du Néguev en Israël. BE Israel
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une entreprise américaine spécialisée dans les biotechnologies annonce avoir développé une technique permettant de créer des cellules souches tout en évitant la destruction des embryons d'origine, qui provoquait une forte opposition morale et politique à la recherche sur les cellules souches. "Cela va rendre plus difficile de s'opposer à ces recherches", a affirmé Robert Lanza de l'entreprise californienne Advanced Cell Technology, qui a présenté sa technique le 23 août dans la revue « Nature ». Les chercheurs spécialisés ont salué l'efficacité de cette nouvelle technique, un porte-parole de la Maison blanche estimant "encourageant de voir des scientifiques faire des efforts sérieux pour s'écarter des techniques qui impliquent la destruction d'embryons". Les cellules souches représentent un espoir important pour de nombreux malades parce qu'elles ont la capacité de fabriquer n'importe quel tissu du corps humain. Mais le Vatican, le président Bush et de nombreux autres opposants rejettent les recherches en cours justement à cause des conséquences pour les embryons, détruits après cinq jours, quand ils atteignent une centaine de cellules. La nouvelle technique présentée ressemble à celle déjà utilisée pour tester les embryons fécondés in vitro pour des couples susceptibles de transmettre de graves maladies à leurs enfants. Pour effectuer un "diagnostic génétique préimplantatoire", on extrait une cellule de plusieurs embryons fécondés dans les tout premiers stades de leur développement, quand ils ne comptent qu'une dizaine de cellules. Les cellules sont testées et les embryons sains implantés dans l'utérus de la mère. La technique présentée consiste à prélever une cellule de plus et à la faire se développer. Ainsi, aucune fécondation n'est réalisée spécifiquement et aucun embryon n'est détruit. ACT BBC
|
|
|
|
|
|
|
|
Des chercheurs français et américains ont mis au jour une nouvelle anomalie génétique à l'origine du diabète du nouveau-né, selon une étude publiée dans le New England Journal of Medicine (NEJM). Le diabète néonatal est une forme rare qui touche environ un enfant sur 100.000 à 500.000, selon les estimations des chercheurs, et peut être provoqué par un certain nombre d'anomalies génétiques. Les symptômes apparaissent en général avant l'âge de 6 mois et restent permanents dans environ la moitié des cas. L'autre moitié des patients connaissent une rapide rémission, mais le diabète peut réapparaître à l'adolescence ou dans les années qui suivent. Dans l'étude présentée, des chercheurs travaillant notamment à l'hôpital Necker à Paris et à l'Institut Pasteur à Lille, ont découvert que certains de ces diabètes étaient dus à une mutation du gène ABCC8, qui participe à la régulation des échanges entre les cellules. Dans ce cas, le pancréas fournit de l'insuline mais pas autant que ce dont le corps a besoin. Les patients peuvent suivre un traitement aux sulfamides hypoglycémiants, qui stimulent la sécrétion naturelle d'insuline et évitent le recours aux injections. L'anomalie étant génétique, les chercheurs ont étudié les membres de la famille proche des patients touchés : plusieurs parents se sont révélés diabétiques et sont désormais suivis médicalement et soumis à un régime alimentaire spécifique. La même anomalie génétique a été révélée chez le père de l'un des patients suivis par l'étude : cet homme souffrait d'un diabète néonatal diagnostiqué à l'âge de 13 ans, et après 24 ans de piqûres d'insuline, il a pu renoncer à ce traitement et se contenter des sulfamides. NEJM CNRS
|
|
|
|
|
|
|
|
Une étude, financée par l'Union européenne et publiée dans la revue de l'Institut national du cancer américain, vient de montrer que la surcharge pondérale augmente le risque d'avoir un cancer du colon. Les chercheurs du projet Epic (prospective européenne sur le cancer, les maladies chroniques, la nutrition et le mode de vie) ont suivi près de 500 000 hommes et femmes de tous âges durant six ans. Ces volontaires, tous indemnes de pathologies cancéreuses, ont été évalués en fonction de leur poids, de leur taille, de leur indice de masse corporelle (IMC) et de leurs habitudes diététiques. Dans ce groupe, environ 1500 personnes ont développé un cancer du colon ou du rectum. Les scientifiques ont établi que, chez les deux sexes, le tour de taille était en corrélation positive avec le risque de cancer du colon. Les femmes dont le ratio taille/hanche (RTH) dépassait 0,85 présentaient un risque de cancer du colon de 52 pour cent supérieur à celui encouru par les femmes ayant un RTH inférieur à 0,73. Des chiffres similaires ont été observés chez les hommes, qui voyaient leur risque de cancer du colon augmenté de 51 pour cent par rapport à ceux ayant le RTH le plus bas (< 0,89). Fait très intéressant, les chercheurs ont observé des variations en fonction du sexe, en ce qui concerne le poids. L'étude a permis d'établir que les hommes ayant un indice de masse corporelle (IMC) globalement important couraient plus de risques que les femmes. Les hommes possédant un IMC supérieur à 29,4 présentent un risque de cancer du colon de 55 pour cent supérieur à celui encouru par les hommes minces, ayant un IMC inférieur à 23,6. Chez les femmes, le risque n'est accru que de six pour cent. Les cancérologues pensent que l'insuline, l'hormone régulant le taux de sucre dans le sang, intervient dans les mécanismes favorisants l'apparition des cancers. D'ailleurs, l'obésité abdominale est associée à une résistance à l'insuline obligeant l'organisme à produire de plus grandes quantités de cette hormone. Le cancer du colon est le plus fréquent des cancers. En France, près de 40 000 nouveaux cas sont diagnostiqués chaque année. En termes de mortalité, il provoque plus de 16 000 décès par an. EFIC
|
|
|
|
|
|
|
|
Le nouvel anti-cancéreux Sutent, fabriqué par le géant pharmaceutique américain Pfizer, a reçu une autorisation de mise sur le marché dans l'Union européenne pour soigner le cancer du rein, et certaines tumeurs gastro-intestinales rares, les tumeurs stromales... Il a été approuvé en février aux Etats-Unis par l'administration américaine des médicaments (FDA) pour traiter des cancers du rein et de l'estomac. Les premiers essais thérapeutiques ont aussi montré son efficacité contre les cancers du sein, du poumon et du pancréas. Le nouveau médicament est cependant très coûteux, le traitement d'un patient pendant un mois s'élevant à environ 2 400 livres sterling (3 500 euros, 4 470 dollars). Sutent inhibe une enzyme spécifique qui donne aux cellules le signal de se multiplier et qui est particulièrement virulente dans certains cancers. Les nouvelles molécules privent, en outre, les tumeurs des substances nutritives nécessaires à leur développement en empêchant la croissance des vaisseaux sanguins. C'est le premier médicament qui combine ces deux procédés anticancéreux. Il a causé une diminution de la taille des tumeurs chez 35 % des patients atteints d'un cancer du rein avancé qui ne répondaient pas aux autres traitements et permis de stabiliser la taille des tumeurs dans 28 % de cas supplémentaires. “Depuis de nombreuses années, les options thérapeutiques disponibles pour les malades atteints de cancers métastasés du rein sont très limitées “ souligne Sylvie Négrier, Professeure de cancérologie au Centre Léon Bérard de Lyon.. “ Mais avec ce nouveau médicament, tout va changer car il montre une réelle efficacité sur plus du tiers des tumeurs ce qui est vraiment remarquable ». Pfizer
|
|
|
|
|
|
|
|
Une recherche publiée dans le journal Lancet Neurology montre que les mêmes facteurs de risque qui conduisent aux maladies cardiaques augmentent également le risque de démence type Alzheimer. L'étude s'est penchée sur 1409 personnes d'âge moyen en Finlande de 1972 à 1987. Toutes ont fait l'objet d'un nouvel examen 20 ans après dans le but de découvrir d'éventuels signes de démence. Les principaux facteurs de risque identifiés par ses collègues et le Dr Kivipelto reflètent ceux déjà connus concernant les maladies cardio-vasculaires : l'obésité, l'hypertension artérielle et un taux de cholestérol élevé. Présenter un seul de ces facteurs multiplie par deux le risque pour une personne de développer une démence. Présenter les trois multiplie ce risque par six. La recherche montre qu'une personne qui présente peu des facteurs de risque a environ une chance sur 100 de développer une démence dans les 20 prochaines années alors qu'une personne qui a un score élevé sur plusieurs des facteurs de risque a une probabilité de 16 %. «Nous savons depuis des années que tenter de contrôler l'obésité, la tension artérielle et le cholestérol contribue à la prévention des maladies cardio-vasculaires», souligne le Dr Kivipelto. «Mais maintenant ce n'est plus seulement le coeur qu'on peut sauver, c'est aussi le cerveau». Lancet
|
|
|
|
|
|
|
|
Fumer peut tripler le risque de crise cardiaque et l'exposition au tabac sous toutes ses formes (cigarettes, pipes, cigares, beedies, chicha, tabac à mâcher, tabagisme passif) est mauvaise pour le coeur, selon une étude publiée dans la revue médicale The Lancet. Les fumeurs ont un risque d'infarctus du myocarde multiplié par trois par rapport aux personnes n'ayant jamais fumé, ce surcroit de risque diminuant après l'arrêt du tabac, selon l'étude Interheart portant sur plus de 27.000 personnes de 52 pays (12.461 ayant survécu à un infarctus et 14.637 servant de groupe de contrôle). Le risque d'infarctus dépend du nombre de cigarettes fumées quotidiennement : il augmente de 63 % pour les personnes fumant actuellement moins de dix cigarettes par jour, il est multiplié par 2,6 pour celles consommant de 10 à 19 cigarettes quotidiennes, et par 4,6 pour 20 cigarettes et plus. Il y a une "relation claire" entre le nombre de cigarettes fumées quodidiennement et le risque d'infarctus, soulignent Salim Yusuf, Koon Teo (McMaster University, Ontario, Canada) et leurs collègues. Parmi les "petits fumeurs" (moins de dix cigarettes par jour), l'excès de risque disparaît trois à cinq ans après l'arrêt du tabac. Mais pour les plus gros fumeurs, un excès de risque résiduel (environ 22 %) subsiste vingt ans après l'arrêt du tabac. Parmi les personnes ayant fumé 20 cigarettes et plus par jour, le risque d'infarctus diminue d'abord rapidement dans les trois premières années suivant l'arrêt du tabac, puis la réduction se poursuit à un rythme plus lent. L'exposition à la fumée des autres (tabagisme passif) accroît le risque de crise cardiaque à la fois chez les fumeurs et les non-fumeurs : il augmente de 62 % pour les personnes exposées au tabagisme passif plus de 21 heures par semaine. Fumer des beedies ou bidis, de petites cigarettes indiennes contenant du tabac roulé dans une feuille de tendu, un arbre de la famille de l'eucalyptus, entraîne une augmentation du risque d'infarctus similaire à celui des cigarettes courantes. Consommer du tabac à mâcher ou utiliser le narguilé (chicha) double le risque d'infarctus. Il est même quadruplé lorsqu'un fumeur utilise aussi du tabac à mâcher. "Toutes les formes d'usage ou d'exposition au tabac sont nocives" résume le Dr Koon Teo. Lancet
|
|
|
|
|
|
|
|
Ostreococcus tauri, une minuscule algue marine verte unicellulaire, est le plus petit organisme eucaryote libre actuellement décrit. Isolée pour la première fois en 1994 dans l'étang de Thau, sur la côte méditerranéenne, elle est présente dans la plupart des océans de la planète où elle joue un rôle important pour la production de biomasse océanique. La séquence de son génome complet vient d'être déterminée par le laboratoire Modèles en biologie cellulaire et évolutive (CNRS Université Paris 6) de l'Observatoire océanologique de Banyuls sur mer, en collaboration avec la Génopole Languedoc-Roussillon et le service de Bioinformatique de l'Université de Gand (Belgique). Ostreococcus tauri mesure environ 1 micromètre, soit la taille d'une bactérie, et sa composition cellulaire est minimale. Elle occupe une place particulière dans l'évolution des algues et des plantes supérieures, ayant émergée très tôt de la lignée verte. Cette lignée, qui inclut à la fois les plantes terrestres et la plupart des algues marines et d'eau douce, a évolué il y a environ 1,5 milliard d'années pour donner naissance aux premiers organismes eucaryotes photosynthétiques. La connaissance du génome complet d'Ostreococcus tauri en fait un excellent modèle pour comprendre la génétique de l'évolution, l'adaptation environnementale et l'acquisition des mécanismes métaboliques et photosynthétiques par les plantes supérieures. D'où le surnom de "levure verte" donné par les chercheurs. Ils attendent en effet autant de cette algue pour l'étude des végétaux que de la levure pour l'étude des cellules animales. Les analyses génétiques en cours seront prochainement comparées avec des travaux réalisés sur différentes souches d'Ostreococcus ainsi que sur d'autres algues et plantes supérieures. GL
|
|
|
|
|
|
|
|
Les sensations tactiles ou « informations somatosensorielles » provenant des différentes parties de notre corps sont cartographiées dans notre cerveau sous forme d'une « carte de représentation » neuronale. Il en est de même chez la souris. Une équipe mixte CNRS-Inserm de l'Institut de génétique et biologie moléculaire et cellulaire a montré pour la première fois que le gène Hoxa2 -qui s'exprime dans le cerveau postérieur de la souris- permet de relier les informations sensorielles en provenance de la face avec la station thalamique. Cette découverte permet d'établir la carte somatosensorielle des moustaches, un organe tactile extrêmement développé et utilisé chez les rongeurs dans l'exploration sensorielle de leur environnement. Ces résultats publiés le 10 août 2006 sur le site internet Science Express ouvrent de nouvelles stratégies thérapeutiques pour le traitement chez l'homme des lésions de la perception sensorielle. Les cartes topographiques neuronales se situent dans le cerveau au niveau de trois aires cérébrales : le tronc cérébral (cerveau postérieur), le thalamus et le cortex somatosensoriel. Au niveau de chacune de ces stations, les neurones reproduisent et conservent fidèlement la distribution spatiale et la densité des récepteurs sensitifs à la périphérie du corps (face, langue, lèvres, doigts, tronc, etc.). Ainsi, selon les espèces, les différentes régions du corps sont « cartographiées » en fonction de l'importance de leur sensibilité tactile et non de leur taille. Chez l'homme, la représentation de l'index ou des lèvres occupe ainsi un espace cérébral beaucoup plus important que celle du dos. Chez les rongeurs, la carte de représentation des moustaches occupe une surface cérébrale très importante car celles-ci représentent un organe tactile majeur pour explorer leur environnement. Ces résultats ouvrent aujourd'hui une nouvelle voie de recherche sur cette famille de gènes et constituent une avancée importante dans l'identification des molécules impliquées dans la mise en place des cartes de représentation neuronales. De plus, la compréhension des mécanismes à l'origine des informations sensorielles présente un intérêt majeur dans le développement à moyen terme de nouvelles stratégies thérapeutiques, visant à soigner les lésions de la perception sensorielle chez l'homme. CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
L'AutoTram est un nouveau type de véhicule hybride, entre le bus et le tram, développé par l'institut fraunhofer IVI des systèmes de transports et d'infrastructures. La structure du véhicule s'apparente à celle d'un tram mais son guidage ne s'effectue pas à l'aide d'un système de rails. En effet, l'AutoTram possède des pneus en caoutchouc et se déplace sur des routes bétonnées traditionnelles. Un système de capteurs électroniques permet alors de le maintenir sur une voie de circulation virtuelle et un système optique assiste le conducteur dans ses manoeuvres. Le coût global de l'AutoTram est de 30 à 50 % moins important que celui d'un tram traditionnel puisqu'il ne nécessite ni rails, ni fils de contact. L'AutoTram peut accueillir plusieurs systèmes de propulsion dont une pile à combustible et une propulsion hybride diesel-électrique. La pile à combustible pourrait être utilisée pour déplacer le véhicule de l'entrepôt jusqu'au lieu d'utilisation sans émettre de gaz polluants. Le moteur hybride, couplé à un stockage inertiel serait ensuite utilisé pour le transport public urbain. Ce système de stockage inertiel permet de récupérer l'énergie excédentaire lors d'une utilisation du tram à vitesse constante. Cette énergie, une fois redélivrée, permet de réduire la consommation de diesel ainsi que les émissions polluantes. En éteignant complètement le moteur diesel et en utilisant uniquement l'énergie emmagasinée dans le stockage inertiel, l'AutoTram peut parcourir ainsi une distance de 2 km. Un modèle de démonstration de l'AutoTram sera présenté lors du salon international de l'automobile d'Hanovre qui aura lieu du 21 au 28 Septembre 2006. BE Allemagne IF
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|