L'un des atouts majeurs de cette action réside dans son rankPolicy. Elle utilise des métriques statistiques avancées telles que l'incertitude symétrique (Symmetric Uncertainty), le gain d'information ou l'indice de Gini pour évaluer la pertinence de chaque caractéristique par rapport à la variable cible. Vous pouvez ainsi configurer l'action pour ne conserver que les Top K caractéristiques les plus discriminantes, réduisant ainsi la dimensionnalité de vos données et évitant le sur-apprentissage (overfittingSurapprentissage d'un modèle mémorisant le bruit des données d'entraînement au lieu des tendances, réduisant ainsi sa capacité de généralisation et sa précision sur de nouvelles observations.) de vos modèles.
Le secret pour ne garder que les variables les plus pertinentes : comment fonctionne le moteur de classement intégré ?
Exemples pour l'action featureMachine
Feature Engineering automatique minimaliste
Une exécution simple pour voir ce que l'action propose par défaut sur notre table.
Feature Engineering agressif avec interactions et sauvegarde du modèle
Ici, on active la détection d'interactions entre variables et on sauvegarde le résultat pour un déploiement futur via un astore.