BACCAR, M. Bedis (2025) Alternating Minimization for Sum of Minima of Convex (SMC) Problems: Optimality Conditions and Applications to Robust Regression PRE - Projet de recherche, ENSTA.

Fichier(s) associé(s) à ce document :

[img]
Prévisualisation
PDF
336Kb

Résumé

Cette recherche porte sur l’optimisation des problèmes de Somme de Minimum de fonctions Convexes (SMC), une classe de problèmes non convexes et non lisses apparaissant en Machine Learning et en statistiques robustes, comme la régression robuste. Nous prouvons que la stationnarité directionnelle (d-stationnarité) est équivalente à trouver une solution locale pour les problèmes SMC, offrant un certificat d’optimalité vérifiable qui surmonte les limitations des conditions de criticité standard en programmation DC. Pour calculer ces points d-stationnaires, nous proposons et analysons l’Algorithme de Minimisation Alternée (AMA), qui alterne entre sous-problèmes convexes et mises à jour d’ensembles actifs, avec des garanties de convergence vers des solutions locales. Des expériences numériques sur la régression robuste en 1D, 2D et 4D montrent la supériorité d’AMA par rapport à la régression Ridge et Huber en robustesse aux valeurs aberrantes (Outlier) et récupération des coefficients, bien que le coût calculatoire augmente avec la taille des ensembles actifs. Ce travail relie une théorie rigoureuse à l’implémentation d’un algorithme pour l’optimisation non convexe d’un problème spécifique.

Type de document:Rapport ou mémoire (PRE - Projet de recherche)
Sujets:Mathématiques et leurs applications
Code ID :10586
Déposé par :Houssem Baccar
Déposé le :22 août 2025 11:21
Dernière modification:22 août 2025 11:23

Modifier les métadonnées de ce document.