|
|
|
|
|
NUMERO 83 |
|
|
|
|
|
|
|
Edition du 04 Février 2000
|
|
|
|
|
Edito
DAVOS : Il faut cesser de nier que les inégalités augmentent
“ Il faut cesser de nier que les inégalités augmentent. Pourquoi augmentent-elles ? Chaque fois que l'économie a connu des bouleversements, ceux qui sont bien placés ont fait des profits immenses et les inégalités se sont accrues. Ce fut le cas quand on est passé d'une société agraire à une économie industrielle. [...] Nous passons maintenant d'une économie industrielle à une économie numérique. Depuis 25 ans les inégalités ont augmenté... ” Avec cette intervention lucide, le Président Clinton qui n'a plus de compte à rendre qu'à l'Histoire a dressé, ces jours derniers, au Forum de Davos, un juste constat de la situation qui va être au coeur du débat mondial pendant ces prochaines années. Les Américains qui sont venus à Davos forts des 107 mois successifs de croissance ininterrompue (la plus longue phase de croissance de leur Histoire) étaient arrivés, comme à Seattle, dans un état d'esprit qu'un homme illustre aurait défini comme étant celui d'“ un peuple d'élite, sûr de lui-même et dominateur ”. Les diverses interventions entendues dans la bouche des autorités officielles américaines, (mais n'était-ce pas qu'une prise de position tactique à quelques mois d'élections qui vont dorénavant envahir l'ensemble du paysage politique américain jusqu'en novembre ?) peuvent être interprétées comme une mise en garde contre la “ complaisance ” avec laquelle les Américains jugent actuellement leurs performances. Ainsi, Lawrence H. Summers, pétillant Secrétaire d'Etat au Trésor, a souligné que “ l'excès d'endettement des entreprises et des ménages et le taux d'épargne négatif sont autant de fragilités de l'économie américaine ”. Pour leur part, les Européens devraient relire avec attention les interventions faites à Davos par des économistes reconnus pour leur compétence et en particulier par le Prix Nobel de l'économie 1999, Robert Mundell. De manière cohérente, ils nous ont conseillé, si nous voulons voir se confirmer durablement la croissance que nous connaissons depuis quelques mois, d'engager, sans tarder, des réformes importantes : baisser les impôts et les charges sociales, s'attaquer aux trop nombreuses réglementations et à leurs monopoles, réformer la sécurité sociale et les systèmes de retraite et surtout faire diminuer les déficits publics pour les faire tendre vers leur disparition comme viennent de le décider les Etats-Unis. Pour les observateurs participant au Symposium de Davos, les conditions ne sont pas réunies pour que l'Europe connaisse une croissance forte pendant une période aussi longue qu'aux Etats-Unis si nos pays ne savent pas profiter de cette croissance pour accumuler du capital en investissant. Or, les deux principaux pays d'Europe, l'Allemagne avec les dures négociations salariales actuelles (IG Metall demande une augmentation de 5,5 % des salaires) et la France avec ses 35 heures donnent, pour le moment, la préférence aux dépenses de fonctionnement. L'Europe a tendance à faire confiance au redémarrage de la demande et à oublier l'offre ont affirmé ces observateurs. Mais les suggestions les plus pertinentes faites à Davos viennent très souvent des représentants des pays qui sont encore exclus de cette nouvelle société de l'information. Ils ont dit avec des voix, fort peu relayées parce qu'insuffisamment spectaculaires, s'exprimant souvent avec beaucoup de bon sens, toute l'attention que nous devons porter aux pays en voie de développement si nous voulons que la paix s'installe durablement sur notre Terre. Parmi toutes les propositions qui ont été faites, je voudrais en souligner une car elle rejoint une suggestion que j'avais faite ici-même (Editorial de la lettre n°75 du 11 décembre 1999 http://www.tregouet.org/lettre/index.html) dans mon éditorial “ Halte là, nous ne pouvons plus continuer ainsi. ” Le Président de l'Afrique du Sud, Thabo Mbeki a dit, avec conviction, que seule une “ intervention forte et consciente ” de l'Union Internationale des Télécommunications (UIT) permettrait à l'Afrique de rattraper son énorme retard dans les technologies de l'information. Il a ajouté : “ Si certains disent que le marché corrigera cette inégalité, je dois vous dire que je pense qu'il ne le fera pas ”. Quand on prend conscience que dans toute l'Afrique noire, il n'y a que 100.000 utilisateurs d'Internet (si nous ne comptabilisons pas les 1,6 millions d'Afrique du Sud) alors qu'il y a déjà quelque 200 millions d'internautes dans le Monde, on voit toute l'urgence, pour tous les pays les plus nantis, dont des représentants les plus éminents étaient réunis à Davos, de tout entreprendre pour que la fracture entre les “ inforiches ” et les “ infopauvres ” ne se creuse plus. Cela est d'autant plus important, comme vient de le dire Alvin Toffler dans US Today du 28 janvier 2000, qu'Internet constitue un moyen puissant de lutte contre la pauvreté au niveau mondial, notamment parce qu'il favorise l'accès au savoir. C'est bien de la paix sur notre Terre dont nous parlons quand nous disons toute l'urgence d'une telle prise de conscience. René Trégouët Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le World Wide Web Consortium (appelé aussi W3C) a enfin fait connaître le 26 janvier ses recommandations en ce qui concerne les spécifications du XHTML 1.0. Ce langage doit, à terme, remplacer l'HTML et le XML avec lesquels il est parfaitement compatible. En plus clair, ce langage permettra aux programmeurs de créer des pages qui pourront être visionnées quels que soit la plate forme (PC, ordinateur de poche, terminaux Internet, Web Pad). Issu de la mouture 4 du HTML, le XHTML ne demande que peu d'adaptation par rapport à ce dernier. A l'avenir, il est recommandé aux développeurs de se servir exclusivement de ce langage. En effet, comme le constate le W3C, la multiplication des appareils de poche connectés à l'Internet rend obligatoire un format de mise en page commun à tous les sites pour qu'ils soient accessibles quelque soit la machine qui les consulte. Network news : http://www.vnunet.fr/VNU2/ent/actualites/page_article.htm?numero=3956&date=2000-... communiqué du WC3 : http://www.w3.org/TR/xhtml1/
|
|
|
|
|
|
|
|
Le moteur de recherche américain Alta Vista va ouvrir le 15 février un portail en français, qui permettra aux internautes de faire leurs recherches sur le web francophone et donnera accès à des services (informations, e commerce) en langue française. Alta Vista a bâti un index de 11 millions de pages françaises et affirme couvrir 95% du web français. Le portail promet un renouvellement quotidien de 2 millions de pages. Le moteur de recherche altavista.com, créé en 1994 et basé à Palo Alto (Californie), offre depuis longtemps un contenu francophone étendu. La version en langue anglaise est déjà utilisée par 420.000 abonnés français, soit environ 1 million d'internautes, ce qui le place parmi les dix premiers sites en France. Le site en langue française (altavista.fr) veut s'imposer comme un "portail", ouvrant sur des sites partenaires comme Libération, l'AFP, Parie-Avenue (filiale du Figaro), Les Echos, Webcity, Météoconsult, Planfax, Boîte à recettes... Alta Vista proposera également courant février le choix entre plusieurs sites partenaires de commerce électronique dans les domaines du voyage, des matériels informatiques, des livres, CD et produits alimentaires. L'internaute peut également continuer de rechercher à partir du site français des documents dans l'index mondial, qui compte 250 millions de pages. Alta Vista est une filiale de CMGI, coté au Nasdaq. Compaq Computer détient une participation minoritaire dans la société. AFP : http://fr.news.yahoo.com/000201/4/8cq2.html
|
|
|
|
|
|
|
|
Le nombre d'internautes américains bénéficiant d'une connexion à haut débit au réseau mondial devrait passer de 1,4 million à la fin 1999 à 3,3 millions d'ici la fin de l'année, et à 16,6 millions d'ici 2004, selon le rapport d'un organisme de recherche technologique américain s'appelant Yankee. Cette augmentation est le résultat de la consolidation de l'activité des câblo-opérateurs et de la compétition croissante entre compagnies téléphoniques utilisant la technologie DSL, selon ce rapport. D'ici la fin de l'année, environ 41 % des ménages américains bénéficieront d'un accès à haut débit à l'internet grâce au câble, contre 24 % qui utiliseront le DSL. Les câblo-opérateurs fournissent un accès à haut débit à l'internet par l'intermédiaire de modems câblés. La technologie DSL utilise les capacités inexploitées des lignes téléphoniques déjà existantes et permet d'envoyer des fax ou de téléphoner tout en naviguant à grande vitesse sur l'internet. Le DSL (digital subscriber line) n'est disponible qu'aux abonnés se trouvant dans le périmètre d'une centrale téléphonique dont l'équipement est doté de certaines spécificités. A la fin de 1999, presque 80 % des abonnés américains à un service internet à haut débit utilisaient le câble. A la fin de 2004, le marché du câble aux Etats-Unis devrait diminuer de 42 % au profit de la technologie DSL, selon l'étude. Reuters : http://fr.news.yahoo.com/000128/32/8aw4.html
|
|
|
|
|
|
|
|
Le concept de l'électeur "branché" va pour la première fois devenir réalité dans une campagne présidentielle américaine avec la tenue d'une élection primaire en Arizona (sud-ouest) via l'internet. "C'est la première fois que des électeurs pourront s'exprimer en votant sur l'internet", explique à l'AFP le professeur Fred Solop, directeur de recherches au département de sciences politiques de la Northern Arizona University. Cette idée novatrice, qui a germé dans l'esprit de militants démocrates en Arizona afin d'être réalisable pour la primaire du mois de mars, n'est cependant pas sans arrière-pensée. Il s'agit de permettre à des personnes dans l'impossibilité de se déplacer ou qui répugnent à le faire, de mettre leur bulletin dans une urne électronique, sans sortir de chez eux. "Les jeunes électeurs de 18 à 24 ans, qui généralement ne votent pas, sont les plus intéressés par cette technique", observe le professeur Solop. Seul un tiers des électeurs de cette tranche d'âge avait participé aux primaires précédant la dernière élection présidentielle de 1996, selon des études réalisées au niveau fédéral. A l'instar de l'électeur traditionnel, celui qui fera valoir son vote depuis son clavier d'ordinateur, devra être inscrit sur les listes de son parti. Il devra ensuite introduire un numéro d'identification fourni par les organisateurs à l'avance par courrier, ainsi qu'une série d'informations personnelles. "Ce système sera suffisamment sûr pour éviter les fraudes", a assuré M. Solop. Une étude réalisée par l'institut de sondage "Grand Canyon State Poll" entre le 2 et le 10 octobre 1999 sur un échantillon représentatif de 676 personnes affiliées au parti démocrate a révélé que 25% auraient recours à l'internet pour participer à la primaire. De nombreux Etats, certains à la topographie parfois peu hospitalière comme l'Alaska, ont déjà manifesté leur souhait d'exploiter cette technique de vote sans précédent. ne faudrait pas s'étonner que dans quatre ans, lors de l'élection 2004, le prochain président des Etats-Unis soit directement élu par le biais de l'internet". Mais en attendant la mise en place de ces urnes électroniques à plus grande échelle, l'internet devrait être largement exploité par les deux grandes formations lors de leurs conventions respectives. Les républicains envisagent notamment la mise en place d'un site permettant de tester les intentions de vote avant leur convention du 29 juillet à Philadelphie (est), a indiqué Tim Fitzpatrick, l'un des responsables de ce projet. AFP : http://fr.news.yahoo.com/000129/32/8b0p.html
|
|
|
|
|
La connexion à l'internet en large bande, permettant une liaison permanente sur le net et un débit plus important, est largement plébiscitée par les internautes, selon une étude Ipsos-Médiangles pour l'Institut national de l'Audiovisuel (INA) . L'étude, réalisé auprès 440 utilisateurs de l'internet, souligne que 66 % des internautes classiques seraient intéressés par une formule d'abonnement entre 230 et 300 francs par mois qui permettrait un débit 100 fois supérieur aux connections classiques. Selon cette étude, l'utilisation de la large bande modifie profondément l'usage de l'internet. Les internautes deviennent beaucoup plus exigeants, notamment en matière de qualité de son et d'image. En outre 92% des personnes interrogés indiquent utiliser davantage l'internet en disposant d'un accès à large bande (contre 7 % qui disent l'utiliser autant, et 1% moins), qu'avec une connexion à débit classique. AFP : http://fr.news.yahoo.com/000203/32/8dvi.html
|
|
|
|
|
|
|
|
Les fabricants d'appareils électroniques se battent pour équiper nos poignets de toutes sortes de fonctions: téléphone, lecteur MP3, et maintenant ordinateur. Le onHand PC de Matsucom est une occidentalisation de la RuPuter, une montre distribuée au Japon sous la marque Seiko. Toutes les fonctions courantes d'un assistant personnel sont au menu sur l'écran de 102 sur 64 pixels. Une trentaine en tout: planning, carnet d'adresses, liste de tâches, calculette, compte de dépenses, jeux, sans oublier l'affichage de l'heure. Comme n'importe quel organiseur, une station d'accueil assure la synchronisation avec les données sur son PC ou son Macintosh. Loin de son ordinateur de bureau, l'utilisateur peut, pour entrer des données, recourir à un stylet pour sélectionner lettres ou chiffres sur un minuscule clavier affiché à l'écran. Le onHand PC est animé par un processeur 16 bits à 3,6 Mhz assisté d'une mémoire de 2 Mo. Si on est loin des PC actuels, équipés de processeur à 600 ou 700 Mhz, la puissance fournie est supérieure aux premiers ordinateurs personnels commercialisés par IBM. AFP : http://www.actualinfo.com/fr/multimedia/depeche.cfm?depeche_Index=197392&cat=69&...
|
|
|
|
|
|
|
|
On compare souvent la recherche d'une information au sein d'un réseau à celle d'une aiguille dans une botte de foin. Manque de pertinence des moteurs de recherche, syntaxe complexe et utilisant des opérateurs booléens pas forcément faciles à manier, les raisons de ce relatif manque d'efficacité sont nombreuses. Pour y remédier la société Autonomy, filiale de Neurodynamics, une firme créée par des chercheurs de l'université de Cambridge en 1991, propose une solution complète de gestion de document appelée Autonomy Knowledge Management. Constitué de plusieurs programmes agents dépendants les uns des autres, cet ensemble permet de trouver une information ou un document au sein d'une base de données indépendamment de son format de fichier ou même de la langue dans lequel il a été créé. Pour arriver à des résultats pertinents, Autonomy se base sur trois technologies complémentaires. Première d'entre elle, le moteur DRE (Dynamic Reasoning Engine) analyse les documents à la fois sur les mots mais surtout à partir du contexte duquel ils ont été extraits. Autonomy en tire donc des concepts, des "idées", qu'il mettra en rapport avec la question posée par l'utilisateur en langage naturel. On est loin de la simple recherche du nombre d'occurrence d'un mot au sein d'un corpus de textes. Du fait de sa technologie tenant plus compte du contexte que du mot en lui même, cette solution accepterait même des requêtes formulées en langage familier ou en argot, dès l'instant qu'elles ne comportent pas de fautes d'orthographe. Le moteur existe déjà dans douze langues (dont le français, le japonais et le chinois). Deuxième partie de la technologie Autonomy, la création de profils utilisateurs. Le programme analyse les pages Web et les documents visionnés par l'utilisateur et en déduit ses centres d'intérêts ainsi que ses préférences particulières. De là, il crée un fichier profil par utilisateur, dont il se servira pour affiner encore ses recherches. Troisième module clé d'Autonomy, la fonction Update qui analyse les données incluses dans le fichier de préférence et interroge périodiquement les serveurs de l'éditeur pour se mettre à jour. Celle-ci touche autant les formats de documents (si une nouvelle version de Word est installée sur la machine de l'utilisateur par exemple) que les préférences de l'utilisateur si celles-ci ont changé au cours du temps. Du Push intelligent et réellement sélectif, en quelque sorte. Si elle n'en est plus à ses balbutiements, la technologie Autonomy n'est pas pourtant implantée sur tous les Intranet et portails d'entreprise, loin de là. Mais des sites comme celui de BBC News Online, le site d'information en ligne de la vénérable institution britannique, utilise déjà le procédé avec une certaine efficacité. Ainsi, ce site propose au visiteur d'effectuer une recherche d'un seul coup sur toutes les pages du sites, rédigées pourtant en plusieurs langues. Vunet : http://www.vnunet.fr/VNU2/index.htm
|
|
|
|
|
Le logiciel Bellevue, présenté à Imagina 2000 et disponible à la fin de l'année, permet le croisement de données topographiques numériques avec des photos aériennes ou satellitaires en images naturelles. Avec en entrées ces données sig (systèmes d'information géographique), Bellevue génère automatiquement des fichiers de paysages prêts à l'emploi, directement importables dans la plupart des logiciels 3D utilisés par les infographistes. Pour l'équipe de "Quelle drôle d'idée", ce logiciel se destine aux graphistes travaillant dans les médias. La création d'un portail internet consacré au tourisme offrira également la visualisation via Bellevue des plus beaux sites touristiques du monde. Besok : http://www.besok.com/
|
|
|
|
|
|
|
|
Après un débat public organisé sur son site internet, le Sénat publie depuis le 25 janvier une nouvelle version de sa proposition de loi sur l'usage des logiciels libres dans les services de l'État et les collectivités locales. Le nouveau texte - proposition n°117 - est donc directement issu des discussions qui se sont déroulées en ligne entre le 11 octobre et le 7 décembre derniers. L'article 4 fait notamment appel à la création d'une " Agence du logiciel libre " (ALL), " L'ALL veille à l'interopérabilité des logiciels libres au sein des administrations publiques " qui sera " chargée d'informer les services de l'État des conditions d'application " de la loi. L'ALL " veille à l'interopérabilité des logiciels libres au sein des administrations publiques ZDnet : [http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=12803">et] réalise l'inventaire, par secteur d'activité, des manques en matière de logiciels dont l'usage et la modification sont libres et pour lesquels le code source est disponible. En fonction de cet inventaire, elle autorise les administrations publiques à déroger à la présente loi. "Cette agence " est ouverte aux internautes et ses décisions devront en particulier être précédées par des consultations sur l'internet. " Enfin, " un correspondant de l'Agence du logiciel libre est désigné au sein de chaque préfecture. " " Cette nouvelle proposition est bien plus qu'une banale correction ", indique dans un communiqué l'Association pour la promotion et la recherche en informatique libre (April), qui " apporte son soutien à cette nouvelle proposition de loi ainsi qu'à cette "Agence du Logiciel Libre". "Cette proposition, si tout se déroule comme prévu, devrait être insérée dans le projet de loi gouvernemental sur la signature électronique, prévu pour l'actuelle cession parlementaire. ZDnet : [http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=12803 nouvelle proposition de loi : http://www.senat.fr/grp/rdse/page/forum/texteloi.html Forum de discussion : http://www.senat.fr/grp/rdse/page/forum/index.htm
|
|
|
|
|
|
|
|
La projection numérique est "un bond en avant aussi important que le passage au cinéma parlant ou à la couleur", estime Jean-Yves Rabet, directeur du développement et des nouvelles technologies chez Gaumont. "Que le numérique soit supérieur en qualité au 35mm, c'est incontestable", dit-il. Mais la résolution de l'image sera encore plus belle dans quelques mois et la taille des écrans s'agrandira". Texas Instruments travaille en effet déjà sur une plus haute résolution et une meilleure définition et son représentant, Ian McMurray, a d'ailleurs souhaité ne pas "aller trop vite" et "pousser les professionnels à s'équiper" étant donné l'évolution si rapide de la technologie. Jean-Yves Rabet compare cette innovation à l'avènement des CD audios par rapport au 33 tours en vinyle. "Quand un film aura dix semaines d'exploitation en numérique, il sera aussi beau, aussi lumineux, intact comme au premier jour. Ce qui était impossible à gérer avec de la pellicule". "Toy Story 2" est stocké sur quatre disques durs d'une capacité totale de 72 giga octets et l'image et le son étant indépendant, on peut envisager d'avoir pour une même copie des sous-titres dans plusieurs langues. Jean-Louis Renoux, directeur général des cinémas Gaumont, envisage une telle possibilité pour les salles d'EuroDisney où les touristes espagnols, allemands, italiens pourraient voir un film avec des sous-titres dans leur langue. AFP : http://www.actualinfo.com/fr/multimedia/depeche.cfm?depeche_Index=204914&cat=157... BBC News : http://news.bbc.co.uk/hi/english/sci/tech/newsid_627000/627366.stm
|
|
|
|
|
|
|
|
Le récent 'accord entre la chaîne ABC et le "New York Times", en vertu duquel les sites des deux entités diffuseront quotidiennement un flash de quinze minutes qu'ils auront coproduit, marque-t-il une évolution radicale dans la façon de diffuser l'information sur les sites de presse traditionnels ? Cette question mérite d'être posée au moment où l'image et le son deviennent d'un usage courant sur Internet et dans des conditions acceptables. De fait, de plus en plus de radios et de télévisions proposent leurs émissions sur la Toile, et l'on voit fleurir des sites spécialisés dans la diffusion de programmes formatés pour le réseau. En France, le succès de CanalWeb, qui vient de lever plus de 70 millions de FF, est l'illustration de la "multimédiatisation" du Net. En d'autres termes, la Toile prend une dimension réellement multimédia avec la nette amélioration de la transmission des données audiovisuelles grâce au développement des technologies de télécommunication à haut débit (ADSL, câble, satellite, etc.). Nul doute que cette dimension a eu son importance dans le rachat de Time Warner par America Online le 10 janvier dernier. Pour en revenir à la presse traditionnelle et aux bouleversements que l'essor du multimédia va entraîner pour elle, il est intéressant de noter que la mise en place de séquences vidéo et/ou audio sur les sites des journaux participe d'une volonté de ne pas se laisser distancer par les nouveaux diffuseurs d'informations sur le Net. L'une de leurs principales caractéristiques est d'avoir intégré la dimension multimédia dès leur création. Une révolution est donc en train de s'opérer et elle indique dans quelle direction va s'engager le monde des médias. Le succès de MSNBC aux Etats-Unis en est l'illustration. La chaîne coproduite par Microsoft et le réseau télévisé NBC caracole en tête, à la fois sur le câble et sur le Net, parce que ses deux parents ont fait un mariage réussi et équilibré, le premier apportant la technologie, l'autre le contenu. Dans le cas d'ABC et du "New York Times", il s'agit de la mise en commun de deux savoir-faire en matière d'information, où l'on ne voit guère de complémentarité, si ce n'est l'apport de l'image par la chaîne télévisée. Union de circonstance ? Peut-être car l'un comme l'autre ont besoin d'assurer leur position sur la Toile en tant que fournisseurs de contenu multimédia. L'expérience, qui durera le temps de la campagne électorale américaine, sera évaluée avant d'être reconduite, indique-t-on chez les deux partenaires. Malgré la prudence affichée, il ne fait aucun doute que la presse traditionnelle sur le Net entame une nouvelle phase de développement. Courrier international : http://www.courrierinternational.com/actual/multimedia.asp
|
|
|
|
|
|
|
|
Une nouvelle génération de disques DVD (Digital Versatile Disc) réenregistables à volonté et qui pourraient prendre demain la relève des traditionnelles cassettes vidéo VHS vient d'être mise au point par des ingénieurs français. Ce DVD effaçable et réenregistrable présente des capacités de stockage égales à celles des disques préenregistrés déjà sur le marché, ont indiqué mercredi le Commissariat à l'énergie atomique (CEA) et le groupe français MPO (Moulages plastiques de l'ouest), qui ont conduit en commun ces recherches. Avec 8,5 gigaoctets de capacité sur une seule face, ce nouveau DVD présente une capacité de près du double par rapport aux disques réenregistables déjà mis au point. Ce DVD vidéo permet plus de trois heures d'enregistrement, une image très haute définition (MPEG-2 Haut débit), un son haute fidélité (Dolby, une usure inexistante et des fonctions interactives. Aucune précision n'a été donnée sur le prix auquel pourrait être commercialisé ce nouveau support ou sur les délais de commercialisation. Ces recherches ont été menées au sein d'un laboratoire commun créé par le Laboratoire d'électronique, de technologie et d'instrumentation (LETI) du CEA et MPO en 1999, dans le cadre du programme européen Eurêka. Le LETI, un des plus grands laboratoires européens de recherche appliquée en électronique, est implanté à Grenoble et Saclay.
|
|
|
|
|
|
|
|
Il a la taille d'un best-seller (21 x 14 cm), son épaisseur (2,5 cm), son poids quand il est gros (880 g) et peut contenir trente opus de 500 pages. Le premier livre électronique français, pour l'instant encore prototype, sera dévoilé au Salon du livre, en mars (1). Son nom de code est Cytale, contraction de "cyber" et "tale" (conte en anglais). Sa naissance se raconte d'ailleurs comme un conte de fées ou plutôt de business angels. A l'été 1997, Marc Vasseur, directeur de la société de biotechnologies Genset, peste contre la pile de journaux qui l'encombre dans un vol Paris-San Diego. Pourquoi ne pas concevoir une machine portable, capable de contenir plusieurs livres? Il convainc Jacques Attali et Jacques Lewiner, directeur scientifique de l'Ecole supérieure de physique et chimie industrielle, de le rejoindre dans Cytale SA, qu'il crée en avril 1998. Objectif: faire mieux que la première génération de livres électroniques, les américains Rocket-ebook et Softbook, en apportant la couleur (écran LCD) et en mettant le paquet sur la lisibilité. Le Cytale disposera de cinq polices et de sept tailles de caractère différents. Le modem intégré permettra de se connecter à l'Internet, pour télécharger des livres sur le site de Cytale. Dès mars, le catalogue proposera 1 000 titres, dont les prix ont été négociés avec les éditeurs: les nouveautés seront au même tarif qu'en librairie, en revanche, les "anciens" coûteront 30 % moins cher. Cytale dévoilera très prochainement un partenariat avec un journal. Est-ce la mort du livre? Le président de Cytale, Olivier Pujol, se récrie: "Les deux coexisteront. Mais quoi de plus magique qu'un livre qui devient une bibliothèque à lui tout seul?" Le coût devrait toutefois réfréner les premières ardeurs : le Cytale sera commercialisé en mai aux alentours de 3 000 F. Libération : http://www.liberation.com/multi/actu/20000124/20000128g2.html
|
|
|
|
|
|
|
|
Il y a quelques jours, la firme Gemstar - inventeur du procédé VCR Plus qui permet de programmer son magnétoscope grâce à un simple code, plutôt que d'exécuter de longues instructions - achetait dans la plus grande discrétion deux starts-up de la Silicon Valley : Softbook et NuvoMedia. Peu connues, ces firmes ont toutefois, à plusieurs reprises, fait la Une de l'actualité lorsqu'elles ont commercialisé leurs premiers livres électroniques (e-book). Vendus plusieurs centaines de dollars, ceux-ci permettent, en se connectant à un site Internet, de télécharger le contenu d'un livre que l'on peut ensuite lire sur l'écran monochrome de sa tablette, mais également consulter (et annoter) comme n'importe quel dossier informatisé. Pour autant, depuis leur sortie, les e-books n'ont pas encore su se faire une place dans la panoplie des gadgets appréciés par les internautes, même les plus enthousiastes. Le catalogue - réduit - des livres disponibles y est pour beaucoup, et l'avantage financier d'acheter ainsi son livre est des plus faibles. Sans parler bien sûr du confort de lecture encore incertain et de la modification profonde des habitudes qu'entraîne une telle acquisition. Pourquoi, dans ces conditions, l'intérêt de Gemstar ? Cette firme produit également des programmes de télévision diffusés en boucle par les opérateurs de câble et de télévision par satellite. Et surtout, Gemstar a l'intention de participer à la fusion entre télévision et Internet : sa technologie sera installée dans l'offre AOL TV, qui sera prochainement proposée aux internautes par le N°1 mondial des services en ligne. Dès lors, il n'est pas interdit de penser que Gemstar va tenter d'utiliser les technologies développées par Softbook et NuvoMedia pour diffuser un contenu informatif (programmes de télévision ou autres), à travers ces tablettes qui, un jour, disposeront d'un écran couleur et d'une résolution suffisante pour pouvoir se transformer en postes de télévision portables, sans fil, et surtout connectés au Net. Sans oublier une autre application du e-book encore peu connue, mais qui est déjà appréciée dans le monde universitaire : le téléchargement de supports de cours, rapports et autres sources documentaires multimédia. Ces tablettes sont également très adaptées à une utilisation permettant de télécharger un journal ou une revue aussitôt que le nouvel exemplaire est prêt. Sans avoir à attendre une livraison postale ou se déplacer jusqu'à son kiosque à journaux. La technologie du livre électronique va, à l'évidence, ressurgir là où ne l'attendaient pas ses inventeurs... Les Echos : http://www.lesechos.fr/hightech/index.html
|
|
|
|
|
|
|
|
Thomson Multimedia (TMM), le premier fabricant de téléviseurs aux Etats-Unis, veut imposer la télé comme " le portail électronique à domicile ". Et ce sans attendre la généralisation du numérique. Le groupe français vient donc de renforcer son partenariat avec l'américain Gemstar, spécialiste des technologies audiovisuelles (inventeur du Showview, notamment), dont il est actionnaire à 5%. Les deux partenaires vont constituer une société commune baptisée @TVMEDIA pour développer et exploiter commercialement une solution d'interactivité utilisant non pas le réseau Internet, le réseau câblé ou les satellites mais le réseau hertzien et la voie de retour des pagers. Celui-ci offre l'avantage de couvrir pratiquement tous les Etats-Unis et de permettre une connexion permanente avec un coût d'utilisation " extrêmement bas comparé à une connexion téléphonique ", selon un communiqué. Autrement dit, moins cher qu'Internet et plus rapide à mettre en oeuvre car compatible avec la technologie analogique. Grâce à un émetteur-récepteur intégré dans le téléviseur et à une télécommande, le téléspectateur pourra ainsi avoir accès à des services ne nécessitant pas une interactivité trop compliquée : demander des informations en temps réel (finances, météo, sport), voter, participer à un jeu et bien sûr réaliser un achat. TMM et Gemstar prévoient déjà de se partager les revenus issus de la publicité et du commerce électronique liés à cette technologie brevetée par Gemstar. L'autre volet de cette " alliance stratégique à long terme " concerne l'extension de l'accord de licence permettant à TMM d'utiliser le guide de programmes électroniques (EPG) de Gemstar. TMM, qui a déjà livré 1,5 million téléviseurs équipés de ces guides aux Etats-Unis, s'engage ainsi à déployer les EPG dans près de 30 millions d'appareils au cours de la prochaine décennie. L'accord prévoit également que TMM utilisera cette technologie en Europe à partir de 2001. Après avoir été réservé à la hausse à la suite de ces annonces, le titre de TMM a progressé de plus de 9% à la reprise des cotations. 18H.com : http://www.18h.com/entreprise.asp
|
|
|
|
|
|
|
|
Consulter son compte en banque, connaître la météo de sa ville, confectionner sa propre chaîne personnalisée: la télévision interactive donne un coup de vieux au petit écran, tout en lui apportant des recettes supplémentaires. "Avec le numérique, la télévision traditionnelle élargit considérablement son territoire", a souligné Louis-Bertrand Raffour, directeur d'Havas Images (Vivendi), lors de l'ouverture lundi du Festival Imagina à Monte-Carlo. "Jusqu'à présent, elle comblait le droit à la paresse et la passivité. Aujourd'hui, le téléspectateur veut fabriquer lui-même son propre univers". "Avant, la télévision, via la télécommande, permettait simplement de dire non", renchérit Alain Staron, directeur des nouveaux services de TPS, le bouquet numérique de télévision par satellite. "Maintenant, cette même télécommande permet de choisir, de savoir le temps qu'il fait dans sa ville, de jouer, d'acheter en temps réel ses actions en bourse et bientôt de réaliser sa propre programmation". "Rien que le guide des programmes de TPS et le service météo - gratuits pour les abonnés- génèrent 150 millions de pages vues par mois. C'est mieux qu'un site web", a assuré à l'AFP le responsable de TPS, qui revendique 850. 000 abonnés. Dans un mois, TPS va lancer également la consultation et l'envoi des e-mail, via le petit écran. Un simple clavier sur l'écran permettra de faire son courrier. Un clavier à infra rouge, commercialisé autour de 300 francs, sera en outre proposé pour ceux qui souhaiter envoyer de plus longues missives. Pour le téléspectateur, la vraie révolution viendra de la possibilité de devenir son propre directeur des programmes. "Si le téléphone sonne alors que je suis en train de regarder une émission ou un film sur TF1, même en direct, je pourrais stopper le programme, pour regarder la suite, voire revenir en arrière, lorsque je le voudrais". Techniquement, c'est en fait le programme qui sera chargé sur le disque dur du décodeur, nouvelle génération. Aux Etats-Unis, la société TiVo TV, dans la Silicon Valley, a déjà une longueur d'avance. Un boîtier, branché sur la télévision, permet même d'apprendre le goût du téléspectateur. Il enregistre alors ses émissions préférées et lui propose ensuite de les visionner à sa guise. "D'ici 5 ans, assure M. Raffour, l'interactivité aura révolutionné les médias et les télécommunications". Assis sur son canapé devant son téléviseur, en déplacement avec son mobile, au bureau devant son PC, tous les contenus et services seront alors disponibles sur l'ensemble des supports. AFP : http://fr.news.yahoo.com/000131/32/8bzi.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Au terme d'une semaine de négociations particulièrement difficiles, les représentants de 130 nations réunis à Montréal du 24 au 29 janvier ont finalement adopté le 29 janvier au matin le Protocole sur la biosécurité. Cette entente internationale régira le commerce international des organismes génétiquement modifiés (OGM), aliments transgéniques y compris. L'entente finale a été accueillie favorablement tant par les Américains que les Européens et les groupes de défense de l'environnement. Deux principes ont fait l'objet de luttes particulièrement âpres : le droit de fermer ses frontières aux produits jugés dangereux et l'étiquetage des OGM. L'entente reconnaît ces deux principes, mais avec certaines restrictions. D'une part, seuls les produits vivants seront vraiment reconnus comme des OGM : les semences transgéniques, ou des bactéries modifiées, par exemple. Les produits transformés, qui sont morts et ne peuvent plus se répandre dans l'environnement, ne pourront pas être bloqués aux frontières. Ils devront toutefois être étiquetés. Bien qu'il ne concerne que les produits vivants, le droit de bloquer les OGM aux frontières est en revanche très étendu et consacre la reconnaissance internationale d'un principe de précaution élargi . Concrètement il sera possible, en vertu de ce principe, d' interdire les produits jugés dangereux pour l'environnement ou la santé humaine même s'il n'existe pas de preuve scientifique absolue de leur nocivité. Cette possibilité, de l'avis de tous les observateurs, représente une concession majeure de la part des Etats-Unis et de ses alliés (Canada, Australie, Argentine). En contrepartie, les Européens ont accepté de transiger sur la question centrale de l'étiquetage. Initialement l'Europe souhaitait que le type exact d'OGM soit précisé sur chaque emballage. mais l'accord final prévoit que l'emballage d'un produit contenant des OGM ne contiendra que la mention " peut contenir des OGM " sans préciser lesquels. Il s'agit ainsi d'éviter ou du mois de limiter les problèmes techniques considérables qui se poseraient s'il fallait séparer les aliments transgéniques des autres à toutes les étapes du transport et du stockage. La presse internationale souligne que cette reconnaissance internationale d'un large princie de précaution concernant l'utilisation des OGN a été obtenue grâce à la solidarité sans faille de tous les pays de l'Union européenne et constitue une première étape très importante dans la construction d'un nouvel ordre juridique mondial en matière de sécurité sanitaire et alimentaire. Brève rédigée par @RT Flash Le Devoir de Montréal : http://www.ledevoir.com/ecol/2000a/biod310100.html
|
|
|
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
L'infarctus cérébral, souvent appelé " attaque cérébrale ", constitue aujourd'hui la première cause de handicap et la troisième cause de mortalité, après les cancers et les maladies cardiaques, en France. Il tue, chaque année, plus de 40 000 personnes dans notre pays et, depuis 20 ans, il a touché près de 2 millions de Français, essentiellement âgées de plus de 60 ans. Ce type d'infarctus résulte de l'obstruction d'une artère, entraînant la destruction d'une zone du cerveau. Le caillot sanguin qui " bouche " le vaisseau est formé de plaquettes et de fibrine. Il se solidifie sous l'influence d'un facteur de coagulation appelé le facteur XIII. Les handicaps moteurs et intellectuels, souvent majeurs, apparaissent à la suite d'une attaque cérébrale chez 75 % des patients. L'étude GENIC a pour objet d'identifier les facteurs génétiques qui prédisposeraient certaines personnes à la survenue d'un infarctus cérébral. Coordonnée par le centre de neurologie de l'hôpital Lariboisière (AP-HP) sous la direction du professeur Pierre Amarenco, elle réunit 50 chercheurs et médecins de l'AP-HP et de l'INSERM (unités 360 et 525, respectivement dirigées par Annick Alpérovitch et François Cambien) et d'autres centres hospitaliers dans toute la France. Plus de 1000 sujets ont été suivies afin de constituer une banque de données génétiques. Cette étude a permis de constater que les sujets porteurs d'un variant du facteur XIII seraient davantage protégés de l'infarctus cérébral que les patients pourvus du gène ancestral. Un premier lien vient donc d'être identifié, dans GENIC, entre un facteur de risque génétique et l'infarctus cérébral. D'autres équipes sont parvenues aux mêmes conclusions pour l'infarctus du myocarde et la thrombose veineuse des membres inférieurs. En conséquence, une forme particulière du facteur XIII protégerait de l'infarctus cérébral comme de l'infarctus du myocarde. Même si, à ce jour, en thérapeutique, on ne peut agir spécifiquement sur le facteur XIII, ces résultats sont importants : en effet, ils pourraient améliorer la compréhension des mécanismes à l'origine de l'occlusion vasculaire. Ils pourraient également ouvrir la voie à l'identification de groupes à risque ainsi qu'à une prévention ciblée. INSERM : _ http://www.inserm.fr/servcom/servcom.nsf/397fe8563d75f39bc12563f60028ec43/801a74...
|
|
|
|
|
|
|
|
On aura de plus en plus la santé sur le Net. C'est du moins ce qui ressort d'une prévision récente de Jupiter Communications, qui assure que d'ici 2004, 10 milliards de dollars de produits et services liés à la santé seront achetés en ligne. Un secteur qui n'a représenté que 200 millions de dollars l'année dernière. La firme d'analyses new-yorkaise base ses prévisions sur une conjonction de facteurs. L'arrivée imminente de starts-up ne manquant pas de moyens financiers et prêtes à en consacrer une bonne partie à de la publicité dans les médias traditionnels. La croissance de ce marché sera également dopée par deux tendances qui s'affirment : l'entrée progressive dans les moeurs du commerce électronique et la place grandissante des femmes parmi la cyber-population. Et de fait, Jupiter constate que 45 % des internautes sondés ont déjà utilisé le web pour s'informer sur des problèmes liés à la santé, même si la même proportion préfère encore s'en tenir là. Et aller chercher ses produits dans les pharmacies ou les grandes surfaces habituelles. Les nouveaux services gratuits offerts prochainement par iVillage, un site spécialisé dans les centres d'intérêts typiquement féminins, pourrait contribuer à faire évoluer les mentalités. La start-up vient en effet de s'associer avec un spécialiste de ce secteur, Life Masters, qui proposera gratuitement aux internautes des outils en ligne pour surveiller des paramètres personnels de santé, procurera des conseils liés à la diététique, par exemple, et donnera accès à de nombreuses archives. Parmi les problèmes de santé que les utilisateurs du site iVillage pourront gratuitement surveiller, figurent notamment le diabète (particulièrement répandu aux Etats-Unis), l'hypertension, les problèmes respiratoires et cardiaques. De plus, les internautes pourront s'adresser directement à des infirmières diplômées, soit par messagerie électronique, soit même par messagerie instantanée, en cas de question urgente. Ces services seront-ils suffisants pour commencer à développer une cyber-médecine ? Même Jupiter reconnaît implicitement que l'on en est encore loin, ne serait-ce que parce que les systèmes de santé qui prévoient les remboursements de médicaments ne seront pas adaptés demain au commerce électronique. Pour autant, le web devrait contribuer à générer des demandes nouvelles pour des produits de parapharmacie et de services en ligne de type conseil. Un marché nouveau, alimenté par des internautes aisés socialement, bien éduqués, rompus au e-commerce et qui, bien entendu, n'ont plus le temps d'aller chez le docteur... Les Echos : http://www.lesechos.fr/hightech/index.html
|
|
|
|
|
|
|
|
Les chercheurs sont convaincus qu'il y a de l'eau liquide sous la surface gelée d'Europa, l'une des lunes de Jupiter. Cet océan contient-il de la vie? C'est très possible, mais à une condition : qu'il y ait assez d'énergie disponible. en effet, sans lumière et sans oxygène, on voit mal comment des bactéries pourraient subsister. Mais les radiations forment aussi une source d'énergie exploitable, rappelle Chris Chyba, du SETI Institute . Sur Terre, la vie s'alimente principalement de l'énergie du Soleil. Les plantes transforment la lumière en matière organique, dont les animaux se nourrissent à leur tour : c'est la photosynthèse. On connaît aussi des organismes qui reposent sur une chimie différente : ceux qui consomment du fer ou ceux qui, comme ses extraordinaires vers géants découverts dans les fosses sous-marines, assimilent le soufre. Mais ces formes de chimiosynthèse exigent de l'oxygène or Europa en renferme peu. c'est pourquoi Chris Chyba, du SETI Institute, explore de nouvelles pistes. il souligne que le champ magnétique du Jupiter contient de grandes quantités de radiations. Leur interaction avec la surface gelée d'Europa fournit une énergie importante et peut être suffisante pour alimenter la vie. Brève rédigée par @RTFlash Wired : http://www.wired.com/news/technology/0,1282,33930,00.html
|
|
|
|
|
|
|
|
Un scanner inventé par la NASA et permettant de diagnostiquer au stade précoce un cancer du sein a reçu le feu vert des autorités sanitaires américaines (FDA) pour sa mise sur le marché. L'appareil baptisé Bioscan System est un photomètre à infrarouge (QWIP, Quantum Well Infrared Photodetector). Il permet, a précisé vendredi l'agence spatiale américaine, de repérer les variations du flux sanguin autour des tumeurs cancéreuses causées par l'oxyde d'azote que dégagent les cellules tumorales. Extrêmement sensible, ce capteur à infrarouge est capable de repérer des variations de températures de 0,015 degrés Celsius et dispose d'une vitesse de 200 images par seconde. Inventé par le Dr Sarath Gunapala, ingénieur du Jet Propulsion Laboratory (JPL), un laboratoire de recherches de la NASA, situé à Pasadena (Californie), il utilise également une technologie dite de téléthermométrie dynamique mise au point par Michael Anbar, un scientifique de la société américaine OmniCorder Technologies, basée, à Stony Brook (New York). "Ces deux technologies opèrent ensemble pour donner une image de la zone ciblée et fournir au médecin un diagnostic immédiat", a assuré un porte-parole de la NASA. AFP : http://www.actualinfo.com/fr/sciences/depeche.cfm?depeche_Index=200457&cat=14&f=...
|
|
|
|
|
|
|
|
Des travaux sur des souris mutantes suggèrent qu'une voie entièrement nouvelle pourrait être utilisée pour réduire l'oedème cérébral, complication majeure des accidents vasculaires cérébraux, traumatismes crâniens, tumeurs cérébrales et de certains troubles métaboliques. L'approche thérapeutique consisterait à inhiber l'action de la protéine aquaporine-4 (AQP4), un canal membranaire laissant passer les molécules d'eau dans les cellules gliales. Les aquaporines sont de petites protéines membranaires qui participent au contrôle des transports hydriques. Parmi elles, l'AQP4 est exprimée dans le cerveau, en particulier aux interfaces sang-cerveau et cerveau-LCR, ainsi que dans les cellules gliales, dont les astrocytes. L'équipe de Geoffrey Manley (Université de Californie San Francisco) a mené des expériences sur des souris knock-out pour le gène codant AQP4. Deux modèles expérimentaux ont été utilisés pour provoquer un oedème cérébral : soit l'intoxication hydrique aiguë, suite à l'injection massive d'eau dans la cavité péritonéale et apparition rapide d'une hyponatrémie, soit l'occlusion de l'artère cérébrale moyenne afin de provoquer une lésion cérébrale ischémique. Dans le modèle d'intoxication hydrique, les souris normales et celles dépourvues de AQP4 ont initialement présenté un déficit neurologique. Quelques minutes plus tard, les souris mutantes étaient léthargiques et présentaient un discret déficit neurologique. En revanche, les souris contrôles ont commencé à souffrir d'incoordination motrice avant d'être paralysées. Au bout d'une heure, seulement 8 % des souris normales étaient encore vivantes, contre 76 % parmi les souris déficientes en AQP4. Par rapport aux souris normales exprimant AQP4, les animaux knock-out ont présenté un oedème moins important du prolongement péricapillaire des astrocytes et une moindre teneur en eau dans le tissu cérébral. Des résultats similaires, en termes de mortalité et de déficit neurologique, ont été obtenus dans le modèle d'oedème cérébral causé par l'occlusion de l'artère cérébrale moyenne. Par ailleurs, l'étude histo-morphologique des hémisphères cérébraux a montré que leur élargissement était plus important chez les souris normales (67 %) que chez les souris knock-out pour APQ4 (44 %). 'ensemble de ces données contribue à faire de la protéine APQ4 une cible pharmacologique intéressante pour lutter contre l'oedème cérébral aigu. Selon les auteurs, l'inhibition de ce canal hydrique constituerait une alternative potentielle aux traitements utilisés depuis 70 ans, que sont la décompression chirurgicale et le recours aux agents hyperosmolaires. Caducée : http://www.caducee.net/
|
|
|
|
|
|
|
|
Trois équipes de chercheurs (Université de Zurich, Université de Yale, et SmithKline Beecham PLC à Philadelphie) viennent d'identifier un gène, le Nogo, qui pourrait bien empêcher le renouvellement des cellules nerveuses de la moelle épinière. Depuis les années 80, les conclusions de diverses expériences suggéraient la présence d'un inhibiteur, bloquant leur reconstitution en cas de dommages. La protéine codée par Nogo et présente dans la membrane protectrice des cellules nerveuses, bloquerait la croissance de ces cellules, dont le cycle cellulaire est, normalement, court. L' équipe conduite par Martin Schwab de l'Institut de recherche sur le cerveau à l'Université de Zurich, qui étudie ce gène depuis 15 ans, a mis au point un anticorps qui bloque la formation de la protéine fabriquée par ce gène. Une expérience a été menée en laboratoire sur des nerfs de rats sectionnés. ''Ces derniers, mis en contact avec l'anticorps, repoussent. Ainsi en est-il de nombreuses connexions nerveuses qui transmettent l'influx nerveux d'une cellule à l'autre'', a commenté le Pr. Schwab. Le Pr. Schwab précise que pour mener leurs expériences, les chercheurs ont partiellement sectionné la moelle épinière, paralysant ainsi l'animal, avant de mettre son système nerveux en contact avec l'anticorps pendant deux semaines. Résultat: les nerfs repoussent et les animaux reprennent une activité normale. Ils sont capables de manger et de grimper à la corde. ''Nous voyons des animaux qui retrouvent leurs fonctions'', souligne la biologiste Isabel Klusman de l'équipe de Schwab. que les équipes travaillent déjà à l'identification du possible récepteur de cette protéine dans le tissu nerveux, de façon à trouver rapidement une molécule médicamenteuse inhibant l'action de cette protéine. Le Dr Snyder, neurobiologiste à l'Université Johns Hopkins, évoque une "avancée majeure ". Brève rédigée par @RTFlash USA Today : http://www.usatoday.com/life/health/general/lhgen205.htm
|
|
|
|
|
|
|
|
Le suicide, neuvième cause de décès dans le monde, pourrait-il être inscrit dans les gènes? Des chercheurs de l'Hôpital royal d'Ottawa ont découvert qu'une mutation génétique pourrait augmenter les tendances suicidaires, rapporte samedi le ''National Post''. Cette étude, dont les résultats doivent être publiés le mois prochain dans la revue américaine ''Journal of Medical Genetics'', pourrait conduire à la mise en place d'un test génétique qui identifierait les personnes à risque. Les chercheurs ont découvert une mutation chez un gène qui régule le niveau de sérotonine, l'une des protéines qui achemine les informations entre les cellules, dans le cerveau. Selon eux, les personnes qui présentent cette mutation génétique sont plus de deux fois plus susceptibles que les autres d'avoir un comportement suicidaire. ''Les individus qui en sont porteuses sont plus exposées lorsqu'une situation qui déclenche leur tendances suicidaires se présente'', estime le neurobiologiste Pavel Hrdina, co-auteur de cette étude. Si tel est le cas, un test pourrait alors permettre de diagnostiquer ce risque et d'identifier les personnes qui ont besoin d'une aide médicale, y compris d'une thérapie génique. Seuls des patients souffrant de grave dépression ont été pris en compte lors de cette étude. Les chercheurs ne sont intéressés qu'aux personnes qui présentent des tendances suicidaires chroniques et non celles qui ont fait seulement une tentative de suicide, présentée par les médecins comme un appel au secours. Les chercheurs croient toutefois que la mutation génétique pourrait également être en cause dans les risques élevés de suicide chez les schizophrènes. Ce qui viendrait appuyer une théorie de l'hérédité des maladies mentales et des tendances suicidaires. Associated Press : _ http://fr.news.yahoo.com/actualite/20000129/sante/949168620-0949168731-000000129...
|
|
|
|
|
|
|
|
La thérapie génique pourrait être efficace pour empêcher les vaisseaux sanguins de se boucher à nouveau à la suite d'un pontage. L'athérosclérose, qui résulte du bouchage des artères en raison d'un dépôt de graisses, est généralement traitée par un pontage, c'est-à-dire la greffe d'une veine de la jambe du patient pour contourner le vaisseau bouché. Mais malheureusement, il est fréquent que cette veine se bouche à son tour après l'opération à cause d'un caillot de sang ou de la reproduction excessive de cellules de la paroi intérieure. Le principal auteur de l'étude, le Pr. Sarah J. George, de l'Université de Bristol , a cherché un moyen de bloquer le développement de cette couche anormale de cellules par une thérapie génique afin de prolonger la durée de fonctionnement des greffes et de retarder ainsi, ou même d'éviter, un second pontage. Les chercheurs ont donc sélectionné certaines molécules déjà connues pour leur capacité à empêcher la prolifération des cellules . Une expérimentation menée chez le porc a montré que la prolifération des cellules dans des veines greffées diminuait de moitié chez les animaux ayant reçu cette molécule, même 28 jours après l'opération. C'est la première fois qu'un tel traitement était appliqué à un animal vivant. comme le souligne le Pr. George " cette étude montre qu'à l'avenir thérapie génique et chirurgie vont être de plus en plus associés dans des traitements globaux encore plus efficaces contre les maladies cardio-vasculaires." Brève rédigée par @RTFlash BBC News : http://news.bbc.co.uk/hi/english/health/
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Notre espèce aurait 2 millions d'années ! Telle est l'audacieuse affirmation de deux paléo-anthropologues américains, John Hawks, de l'Université de l'Utah, et Milford Wolpoff, de l'Université du Michigan. Leur article, écrit avec deux autres chercheurs, Keith Hunley et Sang-Hee Lee, est paru dans " Molecular Biology and Evolution ". Ce travail remarquable passe en revue pour la première fois l'ensemble des données paléontologiques, archéologiques et génétiques sur l'espèce humaine. La conclusion est claire : l'Homo sapiens est issu d'un goulet démographique qui a affecté une population d'australopithèques il y a 2 millions d'années. Depuis, il n'y a eu aucun autre événement comparable. Les humains actuels sont les descendants directs de l'espèce surgie au début du pléistocène et, à quelques détails anatomiques près, ils ne s'en distinguent pas. En clair, si le voyage dans le temps existait, un homme d'aujourd'hui pourrait s'accoupler et avoir des enfants avec une femme du pléistocène. " Toutes les preuves disponibles s'accordent avec une théorie "out of Africa", selon laquelle les humains ont évolué en Afrique il y a 2 millions d'années avant de se répandre dans d'autres régions du monde, dit John Hawks. Cette population initiale vivait avant toute colonisation humaine hors d'Afrique. C'est le fait de devenir humain qui a permis ces colonisations. " Juste au sortir du goulet démographique, qui a dû s'étendre sur quelque 50 000 ans (environ 2 000 générations), la population nouvelle devait compter à peu près 10 000 individus. Elle a ensuite connu une expansion continue, dépassant les 6 millions d'âmes à la fin du pléistocène (-30 000 ans), pour atteindre les 6 milliards actuels. Cette " théorie du big bang de l'humanité " - une explosion initiale qui se prolonge depuis - bouscule pas mal d'idées reçues sur les origines de l'homme. L'espèce vieille de 2 millions d'années, c'est dix fois l'âge que les scientifiques lui attribuaient jusqu'ici ! Selon la conception traditionnelle, l'" homme moderne ", celui d'aujourd'hui, serait apparu en Afrique il y a 200 000 ou 300 000 ans, avant d'essaimer dans l'Ancien Monde puis sur toute la planète. Les formes du genre Homo antérieures à 300 000 ans, dont il existe des traces dans tout l'Ancien Monde, sont habituellement considérées comme des " intermédiaires " entre l'Australopithèque et l'Homo sapiens et ont reçu des noms qui les distinguent du Sapiens, telles que Homo erectus ou Homo ergaster. Pour Hawks et Wolpoff, ces formes ne sont que des dénominations différentes de la même espèce. Il n'y a pas de saut entre l'homme moderne et les supposés intermédiaires. Jusqu'à présent, on avait tendance à distinguer deux grands volets dans l'histoire de l'humanité : le premier remontant à 2 millions d'années, le second correspondant à l'apparition de l'homme moderne il y a 200 000 ans. Dans les deux cas, on observe le même schéma d'une origine africaine suivie d'une colonisation des autres continents. Les principales différences étant que la conquête de la planète par l'homme moderne est beaucoup plus rapide et ne se limite pas à l'Ancien Monde (il n'y a pas de traces d'Erectus ou d'Ergaster en Amérique). Cette dualité soulève une difficulté : si les premiers hommes sont apparus en Afrique et ont commencé à émigrer dans l'Ancien Monde il y a au moins 1,5 million d'années, comment interpréter la deuxième conquête, celle de l'homme moderne, qui commence il y a moins de 200 000 ans ? Pourquoi cette double sortie d'Afrique à plus d'un million d'années d'écart ? Si Erectus correspond à une espèce distincte de l'homme moderne, faut-il admettre que ce dernier a supplanté tous les peuplements humains antérieurs de l'Afrique et de l'Asie ? Comment expliquer un tel phénomène de rouleau compresseur, alors même que les indices archéologiques suggèrent plutôt une continuité entre les anciens Homo et les modernes ? Faut-il supposer une innovation biologique spectaculaire, telle qu'une augmentation du volume cérébral. " C'est vrai que notre cerveau est plus gros que celui de nos ancêtres, admet John Hawks. Mais la question est de savoir quel est le schéma de cet accroissement ? Se produit-il par un saut brusque ? Dans ce cas de figure, il faudrait y voir la preuve d'un événement biologique, signifiant probablement l'apparition d'une nouvelle espèce. Mais ce que nous observons, c'est au contraire que la taille du cerveau a augmenté progressivement au cours du dernier million d'années. On ne voit pas de trace d'un saut, ou d'une série de sauts. Notre espèce a vu son cerveau augmenter, mais il n'en résulte pas qu'il y ait eu une nouvelle spéciation. Nous avons changé par rapport aux anciens hommes, tout comme nous avons changé depuis l'invention de l'agriculture. Pour autant, ces changements sont compatibles avec une espèce unique. " Une argumentation analogue peut être développée sur le plan de la génétique. On ne trouve pas, dans les gènes des humains actuels, les traces d'une espèce ancestrale. L'avantage de la théorie de Hawks et Wolpoff est qu'elle fournit le cadre le plus simple qui soit compatible avec l'ensemble des connaissances actuelles. L'humanité remonte en droite ligne à la population issue du goulet démographique d'il y a 2 millions d'années et a entrepris de coloniser la planète dès qu'elle en a eu les moyens, c'est-à-dire grosso modo dès qu'elle a atteint un effectif suffisant, ce qui a quand même demandé plusieurs centaines de milliers d'années. Tous les peuplements humains correspondent à la même espèce, y compris les Néandertaliens. Jusqu'ici, l'on considérait que l'ascendant direct de l'homme, le dernier chaînon entre australopithèques et Sapiens, était Homo habilis, dont on a trouvé de nombreux vestiges remontant à près de 2 millions d'années, et dont le crâne de 600 à 700 cm3 semble très humain. Là aussi, la " théorie du big bang " chamboule les idées en vigueur : " Les fossiles connus d'Homo habilis sont postérieurs à 2 millions d'années, donc à nos ancêtres directs, dit John Hawks. Homo habilis ne peut pas être notre ascendant direct, il est trop tardif. Il est du type australopithèque, avec un petit corps et un petit cerveau. On peut le classer comme un australopithèque tardif. Il faut imaginer, il y a 2 millions d'années, un monde bien différent de celui d'aujourd'hui, dans lequel de nombreuses sortes de petits hominidés bipèdes coexistaient avec nos grands ancêtres au cerveau développé. Ainsi, la conjonction de circonstances fortuites et de contraintes biologiques a fait surgir des arbres une espèce nouvelle, dans des conditions extrêmement improbables qui auraient pu aussi bien aboutir à une disparition pure et simple Nouvel Obs ( article résumé par @RTFlash) : http://www.nouvelobs.com/epoque/epoque1.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|