Quels paramètres sont utilisés pour définir les dimensions d'une couche d'entrée (type INPUT) dans un modèle de Deep Learning ?

Pour une couche d'entrée de type INPUT, les dimensions sont définies par :

  • height : Spécifie la hauteur de la couche d'entrée. Pour les données non-IMAGE, si non spécifiée, la valeur est calculée au début de l'entraînement. Minimum 0, par défaut 0.
  • width : Spécifie la largeur de la couche d'entrée. Similaire à la hauteur, si non spécifiée pour les données non-IMAGE, la valeur est calculée au début de l'entraînement. Minimum 0, par défaut 0.
  • nChannels : Spécifie le nombre de canaux des données d'entrée. Par exemple, 1 pour les images monochromes et 3 pour les images couleur (bleu, vert, rouge). Minimum 1, par défaut 1.

Des options de normalisation et d'augmentation de données sont également disponibles :

  • offsets (alias normMus, normMu, normMeans, mus, means) : Spécifie un décalage pour chaque canal des données d'entrée.
  • normStds (alias normStd, stds, offsetStd, offsetStds) : Spécifie un écart-type pour chaque canal des données d'entrée.
  • scale : Un facteur d'échelle à appliquer à chaque image. Par défaut 1, doit être supérieur à 0.
  • std : Définit la méthode de standardisation des variables : MIDRANGE, NONE (par défaut pour CNNRéseau de neurones profond spécialisé dans le traitement de données structurées en grille (images). Il utilise des couches de convolution pour extraire automatiquement des caractéristiques spatiales.), ou STD (par défaut pour RNNRéseau de neurones récurrent conçu pour les données séquentielles. Il utilise des boucles de rétroaction pour mémoriser l'information passée, idéal pour l'analyse de texte ou de séries temporelles.).
  • randomCrop : Méthode de rognage aléatoire (NONE par défaut, RANDOMRESIZED, RESIZETHENCROP, UNIQUE).
  • randomFlip : Méthode de retournement aléatoire (NONE par défaut, H pour horizontal, V pour vertical, HV pour horizontal ou vertical).
  • randomMutation : Mutagène aléatoire des images (NONE par défaut, RANDOM).
  • dropout : Taux de dropout pour la couche. Par défaut 0, doit être entre 0 et 1 (exclus).

Cette réponse vous a-t-elle aidé ?

Vos votes aident à améliorer notre base de connaissances.

Exemples pour l'action addLayer

1. Ajout de la couche d'entrée (INPUT)
Illustration corporate

Cet exemple définit la couche INPUT (tenseurs RGB 3x32x32). Le paramètre scale (1/255) normalise les pixels dans [0,1], une étape critique pour stabiliser la descente de gradient.

2. Ajout d'une couche de convolution (CONVO)
Illustration corporate

Cet exemple intègre une couche CONVO (16 filtres 3x3, stride=1). L'activation ReLU introduit la non-linéarité, et l'initialisation XAVIER préserve la variance des gradients.

Assemblage d'un réseau CNN de bout en bout
Illustration corporate

Cet exemple finalise le CNN : Max Pooling (réduction spatiale), FC (dropout 0.2) et OUTPUT Softmax (entropie croisée).