Comme on l’a vu à la fin du chapitre précédent, pour trouver la “meilleure” droite, notre algorithme a besoin d’un moyen de noter ses propres performances. Il lui faut un juge impartial qui lui dit : “Là, ta prédiction est bonne” ou “Ouh là, tu es très loin de la vérité !”. Ce juge, c’est la fonction de coût.
Son rôle est de calculer un score d’erreur unique qui résume la performance du modèle sur l’ensemble des données. Plus le score est bas, meilleur est le modèle.
Avant d’aller plus loin, il est utile de connaître une petite distinction de vocabulaire que tu rencontreras souvent. Même si les termes sont parfois utilisés de manière interchangeable, il y a une nuance :
En résumé : la Loss c’est l’erreur sur un point, la Cost c’est l’erreur moyenne sur tous les points.
Pour la régression linéaire, la fonction de coût la plus populaire est de loin l’Erreur Quadratique Moyenne (ou Mean Squared Error en anglais, d’où l’acronyme MSE). Ne te laisse pas intimider par le nom, on va le décortiquer ensemble, c’est très simple !
Reprenons nos singes. Pour calculer la MSE, on suit 3 étapes :
Calculer l’erreur pour chaque singe : Pour chaque singe, on calcule la différence entre son poids réel et le poids prédit par notre modèle. C’est la distance verticale dont on parlait au chapitre 2.
Mettre cette erreur au carré (Quadratique) : On prend chaque erreur calculée et on la multiplie par elle-même. Pourquoi faire ça ? Pour deux raisons très malignes :
Faire la moyenne (Moyenne) : On additionne toutes les erreurs au carré que l’on vient de calculer, et on divise par le nombre total de singes. On obtient alors un seul chiffre : la MSE. C’est le score final de notre modèle.
La formule mathématique qui résume tout ça est la suivante :
Où :
n est le nombre total de singes dans notre jeu de données.i (son vrai poids).i.Pour être sûr que tu as bien compris, faisons un calcul ensemble, à la main ! Imaginons que nous avons 3 singes et que notre modèle (notre droite y = ax + b avec des valeurs de a et b pour l’instant choisies au hasard) a fait les prédictions suivantes :
| Singe | Poids Réel (y) | Poids Prédit (ŷ) |
|---|---|---|
| 1 | 30 kg | 39 kg |
| 2 | 67 kg | 87 kg |
| 3 | 98 kg | 80 kg |
Déroulons les 3 étapes du calcul de la MSE :
Le score MSE de notre modèle actuel est donc de 268,3. Ce chiffre, à lui seul, représente la performance globale de notre droite. Le but du jeu sera d’ajuster a et b pour que ce score soit le plus bas possible.
Voilà ! Notre objectif est maintenant limpide : trouver les valeurs de a et b (la pente et l’ordonnée de notre droite) qui rendent ce score MSE le plus petit possible. Mais comment faire pour trouver ces valeurs magiques sans tester toutes les droites de l’univers ? C’est ce que nous verrons dans le prochain chapitre en parlant d’un algorithme appelé la “Descente de Gradient”.