Absolument, et cela représente un atout majeur pour les équipes Data face aux exigences d'explicabilité et d'auditabilité des modèles d'intelligence artificielle. L'action intègre le paramètre layerOut, conçu pour générer une table de résultats capturant les valeurs d'activation exactes au sein des couches internes du réseau. Afin de prévenir toute saturation de la mémoireGemini said
Espace de stockage temporaire (RAM) utilisé par le moteur CAS pour charger et traiter les données à haute vitesse, minimisant les accès disque pour optimiser les performances de SAS Viya. vive par des données superflues, les architectes de solutions recommandent d'utiliser le paramètre layers. Ce dernier permet de filtrer et de lister nominativement quelles strates neuronales spécifiques doivent être sauvegardées, offrant ainsi une visibilité chirurgicale sur le déclenchement des caractéristiques métier.
Est-il possible d'extraire les activations intermédiaires pour accroître l'explicabilité de vos algorithmes ?
Exemples pour l'action dnnScore
Scoring basique avec un DNN
Cet exemple montre comment scorer une table avec un modèle existant et conserver l'identifiant 'ID' dans les résultats pour pouvoir raccorder les prédictions aux observations sources.
Scoring avec accélération GPU et extraction de couches
Pour les modèles plus lourds (comme la vision par ordinateur ou le texte), nous utilisons ici un GPU avec une précision FP16 pour doper les performances. Nous en profitons pour extraire la sortie (activations) d'une couche spécifique nommée 'Couche_Cachee_1'.