L'explosion des volumes de données collectées implique un défi important pour mettre au point les outils permettant d'exploiter ces Big Data. C'est le cas notamment dans le domaine des sciences de la vie, que ce soit pour le criblage de médicaments, la recherche d'une structure protéique ou encore la métagénomique (étude du génôme de l'ensemble d'une population échantillonnée, par exemple les bactéries de l'intestin). Une équipe du MIT, menée par Bonnie Berger, a développé une technique pour séparer le temps de calcul de la taille de l’échantillon. Et ce, sans détériorer la sensitivité et la spécificité de la recherche.
Pour ce faire, l’équipe de Bonnie Berger a développé un outil à partir d'une théorie bien connue : l’intégration des données dans des ensembles en fonction de leur similarité. En effet : lorsque l'on augmente le nombre de données dans un système, on augmente mathématiquement son entropie, mais pas forcément le nombre d'informations utiles. Le MIT a innové en développant des algorithmes capables de rapprocher[…]
Pour lire la totalité de cet article, ABONNEZ-VOUS
Déjà abonné ?
Pas encore abonné ?