TIC
- Information et Communication
- Informatique
Le déluge de données va-t-il rendre la méthode scientifique obsolète ?
- Tweeter
-
-
1 avis :
Nous voici entrés dans l'ère des Big Data des ensembles de données tellement gigantesques qu'ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse... Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d'informations doit apprendre à comprendre ce qu'elle analyse. L'enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c'est le dossier de la semaine d'InternetActu qui commence par un retour sur un article fondateur de 2008 qui posait les bases de la révolution à venir.
Selon Chris Anderson, nous sommes à la fin de la science, de la science telle que nous la connaissons. "À l'échelle du pétaoctet, l'information n'est pas une question de simples dimensions en matière de taxonomie et d'ordre, mais de statistiques agnostiques en termes de dimensions. Cela nécessite une approche totalement différente, qui nous oblige à concevoir la donnée comme quelque chose qui ne peut être visualisée dans sa totalité. Cela nous oblige à regarder d'abord les données mathématiquement et établir leur contexte ensuite.
Par exemple, Google a conquis le monde de la publicité avec rien de plus que des mathématiques appliquées. Google n'a pas la prétention de savoir tout sur la culture des hommes et les conventions de la publicité - il a juste supposé que des données de meilleure qualité, avec de meilleurs outils d'analyses, l'emporteraient. Et Google avait raison.
La philosophie fondatrice de Google est que nous ne savons pas pourquoi cette page est mieux que celle-ci : mais si les statistiques des liens entrants disent qu'elle l'est, c'est bien suffisant. Aucune analyse sémantique ou de causalité n'est nécessaire. C'est la raison pour laquelle Google peut traduire toutes les langues sans les connaître (avec les mêmes corpus de données, Google peut traduire le klingon en farsi aussi facilement qu'il peut traduire du français en allemand)."
Pour Chris Anderson, l'analyse mathématique appliquée aux énormes quantités de données qui vont provenir de nos capteurs, de nos outils qui collectent tous nos comportements, de nos possibilités infinies de stockage, de nos nuages de processeurs, vont transformer les sciences. "Avec suffisamment de données, les chiffres parlent d'eux-mêmes."
Alors que la méthode scientifique est construite autour d'hypothèses que l'on teste, de modèles et d'expérimentations qui confirment ou infirment les hypothèses théoriques, les données, sans modèles, ne risquent-elles pas de n'être rien d'autre que du bruit ? Pas si sûr, répond Anderson : avec l'arrivée de données massives, cette approche de la science risque de devenir obsolète. "L'ère du Pétaoctet nous permet de dire : "la corrélation va suffire". Nous pouvons désormais analyser les données sans faire des hypothèses sur ce qu'elles vont produire.
Nous pouvons jeter les nombres dans le plus grand réseau d'ordinateurs que le monde ait jamais vu et laisser les algorithmes trouver les modèles que la science n'arrivait pas à trouver." Et d'évoquer l'exemple du séquençage des gènes par Craig Venter, qui est passé de l'organisme humain au séquençage de l'océan, au séquençage de l'air. Un procédé qui lui permet de trouver des centaines de nouvelles espèces, de nouvelles bactéries dont Venter ne sait rien : il ne dispose que d'une alerte statistique, une séquence, qui parce qu'elle n'est pas comme les autres séquences d'ADN qu'il a dans sa base, doit représenter une nouvelle espèce.
Pour Kevin Kelly, beaucoup de domaines scientifiques (l'astronomie, la physique ou la géologie par exemple) utilisent déjà des flux de données extrêmement vastes, dont seuls les ordinateurs peuvent dégager des tendances invisibles à l'échelle de l'oeil humain. Selon lui, ces nouvelles méthodes ne viennent pas remplacer l'ancienne, mais viendront en complément de la science orientée par la théorie.
Noter cet article :
Vous serez certainement intéressé par ces articles :
L'ordinateur quantique franchit la barre des 1000 qbits
Les chercheurs de la TU Darmstadt ont franchi une nouvelle étape vers un ordinateur quantique opérationnel en atteignant le seuil des 1000 qbits. Les processeurs quantiques basés sur des réseaux ...
Intel dévoile le plus grand ordinateur neuromorphique jamais conçu
Intel a franchi une étape majeure dans le domaine de l’intelligence artificielle (IA) avec la création d’Hala Point, l’ordinateur neuromorphique le plus puissant au monde. Cette machine ...
Un bio-ordinateur réussit à faire une reconnaissance vocale
Des chercheurs de l'université d'État de l'Indiana, aux États-Unis, ont créé un système appelé Brainoware qui relie des organes cérébraux - organoïde - à des circuits électroniques, permettant aux ...
Recommander cet article :
- Nombre de consultations : 166
- Publié dans : Informatique
- Partager :