Un taux d'apprentissage statique mène très souvent à des minimums locaux sous-optimaux ou à une stagnation prolongée. SAS Viya résout ce défi grâce au contrôle granulaire offert par l'option learningRatePolicy contenue dans le bloc optimizer. Plutôt que d'utiliser la stratégie par défaut, vous pouvez sélectionner des politiques de dégradation agressives comme MULTISTEP ou POLY. Par exemple, avec la politique par paliers, vous instruisez au réseau de diviser son taux d'apprentissage par une valeur gamma après un nombre précis d'époques défini par stepSize. Cette méthode permet au modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting). d'avancer à grands pas au début de la phase d'apprentissage pour cibler la bonne zone de la fonction de perte, puis d'affiner microscopiquement les pondérations pour atteindre le minimum global absolu.
Comment maîtriser la convergence de votre intelligence artificielle avec les taux d'apprentissage dynamiques ?
Exemples pour l'action dlTrain
Entraînement basique d'un modèle DNN
Ce code entraîne le modèle 'iris_model' avec les paramètres par défaut de l'optimiseur.
Entraînement avancé avec algorithme ADAM et sauvegarde des meilleurs poids
Entraînement utilisant l'optimiseur ADAM, avec des logs détaillés et la sauvegarde des poids optimaux, en s'arrêtant plus tôt si stagnation.