Pourquoi l'élagage avec dtreePrune est-il vital pour la performance de vos modèles prédictifs ?

L'action dtreePrune du package decisionTree permet de réduire la complexité d'un arbre de décision préalablement entraîné. En supprimant les sections de l'arbre qui apportent peu de pouvoir prédictif, vous luttez activement contre le surapprentissage (overfittingSurapprentissage d'un modèle mémorisant le bruit des données d'entraînement au lieu des tendances, réduisant ainsi sa capacité de généralisation et sa précision sur de nouvelles observations.). D'un point de vue métier, cela garantit que votre modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting). se généralisera correctement sur de nouvelles données clients ou des transactions futures, assurant ainsi une meilleure fiabilité des décisions automatisées au sein de SAS Viya.

Exemples pour l'action dtreePrune

Élagage par coût-complexité

Exemple simple montrant comment utiliser l'élagage par coût-complexité avec l'hyperparamètre `alpha`.

Élagage par erreur réduite avec extraction du score aStore

Cet exemple utilise une approche de validation par erreur réduite. Il évalue le modèle avec une table de validation (`table`), exige un nombre cible de feuilles (`nLeaf`), et sauvegarde le modèle optimisé au format %%aStore%% prêt à l'emploi !