Minimisation de l'erreur : quelles fonctions de perte cibler pour optimiser la restitution de votre algorithme ?

Optimisation des fonctions de coût sous Viya 4

Pour que le modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting). exporté conserve une compréhension exacte de ce qu'il tente de prédire, il doit retenir sa fonction d'optimisation mathématique. Le paramètre objective définit le cœur de cette stratégie en spécifiant la fonction de perte (ou fonction de coût) associée au réseau.

  • L'entropie croisée (valeur par défaut) : l'approche standard et incontournable pour résoudre les problèmes de classification multi-classes complexe.
  • L'erreur quadratique moyenne : le choix mathématique optimal pour les prévisions continues, l'estimation de valeurs et les problématiques de régression pure.
  • La perte de log-vraisemblance négative : une fonction très prisée dans le traitement du langage naturel, fonctionnant souvent en synergie avec des couches d'activation probabilistes terminales.

Un paramétrage correct de cet argument assure une restitution parfaite des gradients lors d'éventuels processus de réentraînement (Fine-Tuning) ou d'évaluation de la performance.

Schéma : Minimisation de l'erreur : quelles fonctions de perte cibler pour optimiser la restitution de votre algorithme ?

Exemples pour l'action dlmzExport

Exportation basique d'un modèle en mémoire

Ce code exporte un modèle existant en mémoire vers une table d'état final (souvent appelée Astore) de manière simple.

Exportation complète avec options YAML et allocation GPU

Une exportation plus poussée où l'on configure spécifiquement le GPU à utiliser, la fonction de perte ('CROSS_ENTROPY'), un niveau de journalisation affiné ('DEBUG') et des métadonnées supplémentaires en YAML.