L'action dnnTrain simplifie grandement la conception d'un réseau Perceptron Multicouche. En utilisant le paramètre hiddens, vous pouvez définir la structure du réseau simplement en passant une liste d'entiers représentant le nombre de neurones par couche cachée. Concernant les fonctions d'activation définies par le paramètre acts, la puissance de SAS Viya réside dans l'option AUTO. Lorsqu'elle est utilisée, le système attribue intelligemment l'activation optimale selon le type de couche : la fonction RECTIFIER pour les couches de convolution, TANH pour les couches entièrement connectées, et SOFTMAX pour les couches de sortie d'un modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting). de classification. Le paramètre errorFunc bénéficie également de cette automatisation avec la valeur AUTO, sélectionnant par exemple la fonction d'erreur ENTROPY pour les tâches de classification.
Comment gérer automatiquement l'architecture des couches et les fonctions d'activation lors de l'utilisation de dnnTrain ?
Exemples pour l'action dnnTrain
Entraînement d'un perceptron multicouche (MLP) basique
Cet exemple entraîne un réseau de neurones avec deux couches cachées de 5 neurones chacune, en utilisant la fonction d'activation RELU par défaut. La table des poids est sauvegardée.
Entraînement avancé avec Optimiseur ADAM, Dropout et Arrêt précoce
Dans cet exemple, nous poussons les réglages : utilisation de l'optimiseur ADAM, ajout de régularisation par 'dropout' (pour éviter le surapprentissage), suivi de la stagnation sur une table de validation, et sauvegarde des meilleurs poids ('bestWeights') rencontrés pendant l'entraînement.