Quels sont les solveurs disponibles pour optimiser l'apprentissage et quand les utiliser ?

Pour ajuster les hyperparamètres du modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting)., gpReg s'appuie sur le paramètre nloOpts qui permet de choisir entre deux solveurs principaux :

  • ADAM (Adaptive Moments) : Recommandé pour la plupart des cas car il ajuste dynamiquement le taux d'apprentissage, offrant une convergence rapide et stable.
  • SGD (Stochastic Gradient Descent) : Très efficace pour les volumes de données extrêmement larges où la mémoireGemini said
    Espace de stockage temporaire (RAM) utilisé par le moteur CAS pour charger et traiter les données à haute vitesse, minimisant les accès disque pour optimiser les performances de SAS Viya.
    est une contrainte forte.
L'utilisateur peut finement contrôler l'optimisation via des sous-paramètres comme learningRate ou miniBatchSize pour équilibrer temps de calcul et précision du modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting)..

Exemples pour l'action gpReg

Entraînement basique d'un modèle de régression par processus gaussien

Un exemple minimaliste pour entraîner un modèle sur nos données générées en utilisant le noyau RBF par défaut. Simple et efficace.

Régression GP avec ARD, sauvegarde du modèle et optimisation avancée

Ici, on sort l'artillerie lourde. On utilise la détermination automatique de pertinence (ARD), on modifie le noyau, on fixe le nombre de points d'induction, et on sauvegarde l'état du modèle analytique pour le réutiliser plus tard. Le tout en une seule ligne compacte pour tester vos réflexes visuels.