Quels sont les paramètres disponibles pour une couche récurrente (type RECURRENT) et comment la configurer pour différents types de RNN ?

Une couche récurrente de type RECURRENT est utilisée pour traiter des séquences. Les paramètres principaux sont :

  • n : Nombre de neurones dans la couche (obligatoire, minimum > 0).
  • rnnType : Type de réseau de neurones récurrent (par défaut RNN) :
    • GRU : Gated Recurrent Unit.
    • LSTM : Long Short-Term Memory unit.
    • RNNRéseau de neurones récurrent conçu pour les données séquentielles. Il utilise des boucles de rétroaction pour mémoriser l'information passée, idéal pour l'analyse de texte ou de séries temporelles. : Réseau de neurones récurrent simple.
  • outputType : Type de sortie de la couche RNNRéseau de neurones récurrent conçu pour les données séquentielles. Il utilise des boucles de rétroaction pour mémoriser l'information passée, idéal pour l'analyse de texte ou de séries temporelles. (par défaut ENCODING) :
    • ARBITRARYLENGTH : Génère une séquence de longueur arbitraire.
    • ENCODING : Génère un vecteur de longueur fixe.
    • SAMELENGTH : Génère une séquence de même longueur que l'entrée.
  • maxOutputLength : Longueur maximale de la séquence de sortie si outputType est ARBITRARYLENGTH (entre 1 et 100000).
  • reversed (alias reverse) : Indique si la séquence est traitée dans l'ordre inverse (FALSE par défaut).
  • dropout : Taux de dropout (par défaut 0, entre 0 et 1 exclus).
  • init : Schéma d'initialisation des poids (voir options d'initialisation).
  • mean : Valeur moyenne pour l'initialisation NORMAL (par défaut 0).
  • std : Écart-type pour l'initialisation NORMAL (par défaut 1).
  • truncationFactor (alias truncFact) : Seuil de troncature pour l'initialisation NORMAL (par défaut 0, minimum 0).
  • act : Fonction d'activation (voir options de fonctions d'activation).
  • fcmpAct : Fonction d'activation FCMPProcédure de création de fonctions et sous-programmes personnalisés réutilisables. Elle permet d'étendre le langage SAS et de partager des logiques métier complexes entre différentes étapes DATA. personnalisée.

Cette réponse vous a-t-elle aidé ?

Vos votes aident à améliorer notre base de connaissances.

Exemples pour l'action addLayer

1. Ajout de la couche d'entrée (INPUT)
Illustration corporate

Cet exemple définit la couche INPUT (tenseurs RGB 3x32x32). Le paramètre scale (1/255) normalise les pixels dans [0,1], une étape critique pour stabiliser la descente de gradient.

2. Ajout d'une couche de convolution (CONVO)
Illustration corporate

Cet exemple intègre une couche CONVO (16 filtres 3x3, stride=1). L'activation ReLU introduit la non-linéarité, et l'initialisation XAVIER préserve la variance des gradients.

Assemblage d'un réseau CNN de bout en bout
Illustration corporate

Cet exemple finalise le CNN : Max Pooling (réduction spatiale), FC (dropout 0.2) et OUTPUT Softmax (entropie croisée).