Cette action propose deux méthodologies de pointe via le paramètre selection : le BOOSTINGTechnique d'apprentissage séquentiel où chaque nouveau modèle corrige les erreurs des précédents. Elle réduit le biais et augmente la précision en pondérant les observations mal classées. et le SHRINKAGETechnique de régularisation (ex: LASSO, Ridge) qui réduit la variance d'un modèle en pénalisant les coefficients trop élevés, améliorant ainsi la généralisation et évitant le surapprentissage.. Le boostingTechnique d'apprentissage séquentiel où chaque nouveau modèle corrige les erreurs des précédents. Elle réduit le biais et augmente la précision en pondérant les observations mal classées. ajuste le modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting). de manière itérative pour minimiser l'erreur résiduelle, ce qui est idéal pour maximiser la performance sur des jeux de données massifs. À l'inverse, la méthode de shrinkageTechnique de régularisation (ex: LASSO, Ridge) qui réduit la variance d'un modèle en pénalisant les coefficients trop élevés, améliorant ainsi la généralisation et évitant le surapprentissage. utilise une approche de pénalisation de type Lasso via l'algorithme ADMM (Alternating Direction Method of Multipliers), favorisant des modèles plus parcimonieux et faciles à interpréter par les décideurs métiers.
Boosting ou Shrinkage : quelle stratégie de sélection choisir pour vos analyses non linéaires ?
Exemples pour l'action gamSelect
Sélection de modèle GAM par Boosting
Un exemple simple pour ajuster un modèle avec deux splines et laisser SAS choisir le meilleur compromis.
Modèle Logistique GAM complet avec Validation et Scoring
Ici on utilise une distribution binaire, on ajoute un effet linéaire (x3), on partitionne les données et on sauvegarde le modèle.