La préface du hors-série spécial Machine Learning !

Avec l’explosion du nombre de données disponibles, il faut trouver des méthodes efficaces de traitement pour parvenir à en faire émerger des connaissances. En effet, posséder des milliards et des milliards de données dans différents domaines n’a strictement aucun intérêt en soi si l’on est incapable de les faire « parler », d’établir des relations entre elles ou des inférences. Si nous prenons l’exemple de la biologie, à quoi bon posséder des génomes séquencés si nous nous arrêtons à leurs séquences de nucléotides ? Cela ne nous renseigne en aucune manière sur le fonctionnement de l’organisme étudié. Il faut pour cela passer par les acides aminés, les gènes et leur organisation sur le génome, les protéines, leur structure et leur fonction, etc. Et lorsque les données croissent drastiquement, il n’est plus question d’annotation manuelle et d’expériences (si ce n’est pour valider des hypothèses), il faut un outil informatique puissant qui va aider à faire des prédictions. Cet outil, utilisé par le data scientist (l’expert scientifique chargé de l’analyse de données), peut être le machine learning, thème de ce guide.

De nombreux frameworks permettent d’utiliser le machine learning relativement simplement et ils vous seront présentés de manière plus ou moins avancée dans les différents articles que vous pourrez lire dans les pages suivantes. Il faut toutefois noter deux éléments fondamentaux :

– La donnée est la clé de tout ! Cela peut sembler trivial, mais si vos données ne sont pas de bonne qualité, vous aurez beau appliquer l’outil le plus performant du monde, vous n’en tirerez aucune information. Et comme le machine learning passe par une phase d’apprentissage, il est quand même assez intéressant que cet apprentissage soit effectué sur des données valides… sous peine de reproduire des erreurs, d’introduire des biais dans vos données et donc de biaiser vos données présentes et futures. Ces données sont donc des éléments à traiter avec beaucoup de considération, à ordonner, nettoyer, enrichir (feature engineering qui peut parfois être automatisé par deep learning dans certains cas spécifiques), etc. C’est d’ailleurs une grande partie du travail de data scientist, si ce n’est la plus importante.

– Utiliser un framework permet de gagner du temps… ou pas ! Vous vous rendrez compte que suivant les frameworks, la documentation sera plus ou moins précise et accompagnée d’exemples. Il existe des frameworks très puissants, mais très mal documentés et il est alors plus rapide par exemple de réaliser un clustering K-means à la main qu’à l’aide de méthodes toutes prêtes. Bien entendu, il faut mesurer le rapport gain/risque puisque si vous implémentez un algo que vous ne maîtrisez pas, vous pouvez obtenir des résultats erronés qui vous feront également perdre du temps…

Pour que ce guide soit complet, nous avons voulu le bâtir de manière à proposer des articles présentant les bases théoriques et des exemples pratiques, illustrant comment appliquer le machine learning sur des données et quelles informations en retirer. Vous devriez donc avoir entre les mains tout ce qu’il vous faut pour vous lancer, il ne reste plus qu’à trouver les données…

Tristan Colombo

-> Découvrir/acheter ce numéro : https://boutique.ed-diamond.com/en-kiosque/1291-gnulinux-magazine-hs-94.html

-> S’abonner : https://boutique.ed-diamond.com/abonnements/3-gnu-linux-magazine

Laisser un commentaire