Peut-on injecter des connaissances préalables pour faire du transfert d'apprentissage de haut vol ?

Absolument, c'est l'un des avantages compétitifs les plus puissants pour les architectes Data. L'action dlTrain intègre nativement le paramètre initWeights spécialement conçu pour le transfert d'apprentissage et le réglage fin (fine-tuning). Au lieu de forcer le réseau de neuronesUn réseau de neurones est un modèle d'IA bio-inspiré composé de couches de nœuds interconnectés, capable d'apprendre des relations complexes dans les données pour prédire ou classifier avec précision. à initialiser ses poids aléatoirement, vous pouvez lui passer une table contenant les poids d'un modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting). préalablement entraîné sur des volumes massifs de données. Vous capitalisez ainsi sur une extraction de caractéristiques déjà performante. De plus, grâce au paramètre freezeLayers de l'optimiseur, vous pouvez geler techniquement les premières couches de votre réseau pour protéger ces connaissances apprises, et concentrer la puissance de calcul uniquement sur l'optimisation des dernières couches spécifiques à votre cas d'usage métier.

Exemples pour l'action dlTrain

Entraînement basique d'un modèle DNN

Ce code entraîne le modèle 'iris_model' avec les paramètres par défaut de l'optimiseur.

Entraînement avancé avec algorithme ADAM et sauvegarde des meilleurs poids

Entraînement utilisant l'optimiseur ADAM, avec des logs détaillés et la sauvegarde des poids optimaux, en s'arrêtant plus tôt si stagnation.