[À lire] Le Deep Learning, en fait rien de nouveau

Cet article se propose de faire une introduction au Deep Learning, et de montrer comment des algorithmes centenaires sont passés à l’échelle. En effet, ne l’oublions pas : les principes de base du Deep Learning ne sont pas des plus récents…

Au sommaire de l’article

Apprendre, une affaire de coûts

Un questionnement historique

Une définition plus pragmatique

Un modèle d’apprentissage que nous connaissons tous

Un peu de formalisation

Une mesure de la performance globale

Une méthode vieille de près de quatre siècles

Régression, classification, mêmes outils

Une cible discrète

Le maximum de vraisemblance

Un formalisme qui passe à l’échelle

Généralisation et performance, tout est affaire de compromis

Apprendre par cœur n’est pas comprendre

Le compromis biais-variance

Et le Deep Learning dans tout ça ?

Un réseau de neurones

Apprendre un modèle pas à pas

Apprendre un modèle morceau par morceau

Des architectures de plus en plus complexes

Si vous ne deviez retenir qu’une chose (ou deux)

Constant Bridon

 > Lire l’intégralité de cet article sur notre plateforme de lecture en ligne Connect  

Retrouvez cet article (et bien d’autres) dans GNU/Linux Magazine Hors-série n°100, disponible sur la boutique et sur Connect !