Pouvons-nous réutiliser un réseau de neurones causal déjà entraîné pour faire des inférences sur de nouveaux historiques clients ?

Industrialisation du Deep Learning Causal

Absolument, le système repose sur une architecture découplée séparant l'entraînement de l'exécution. Le bloc de paramètres score a été conçu spécifiquement pour la mise en production et l'application d'une modélisationProcessus de création de structures mathématiques ou statistiques sur SAS Viya pour prédire des comportements, classifier des données ou identifier des tendances à partir de jeux de données CAS. préexistante sur un nouveau lot de données.

Lors de l'entraînement initial, vous devez d'abord sauvegarder les tables contenant les poids optimaux et les structures du modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting).. Ensuite, lors de l'appel de scoringProcessus d'application d'un modèle prédictif à de nouvelles données pour calculer une probabilité ou un score, permettant ainsi d'automatiser la prise de décision en temps réel sur SAS Viya. sur vos nouvelles bases de données, vous référencez simplement ces métadonnéesInformations décrivant les données, les utilisateurs et les ressources dans SAS Viya. Elles assurent la traçabilité, la sécurité et la gouvernance au sein de l'architecture distribuée. via les paramètres de tables d'entrée tels que inA, inB, inO et inPs. L'action appliquera l'ensemble des règles de calculs causaux complexes en mémoireGemini said
Espace de stockage temporaire (RAM) utilisé par le moteur CAS pour charger et traiter les données à haute vitesse, minimisant les accès disque pour optimiser les performances de SAS Viya.
de façon hautement optimisée et en une seule passe sur les nouvelles observations.

Exemples pour l'action deepcausal

Inférence causale basique

Un lancement classique pour évaluer l'effet du traitement T sur le résultat Y en utilisant un réseau de neurones modeste (une couche cachée de 16 nœuds pour chaque modèle).

Inférence causale avancée avec comparaison de politiques et régularisation

Configuration avancée avec des architectures plus profondes (couches de 32 puis 16 nœuds) définies globalement, ajout de régularisation L1/L2, et exportation des détails de scoring individuels pour une analyse microscopique.