DE QUEIROZ GARCIA, Mme Luana (2025) Explainability of high-dimensional prediction models using neural networks PRE - Projet de recherche, ENSTA.

Aucun fichier n'a encore été téléchargé pour ce document.

Résumé

La complexité croissante des modèles d'apprentissage automatique, en particulier des réseaux de neurones profonds pour la prévision météorologique et des grands modèles de langage, a créé un besoin critique de techniques robustes d'IA explicable (XAI). Ces modèles « boîte noire » traitent des données à haute dimensionnalité, ce qui rend difficile la compréhension de leurs prédictions et la confiance dans leurs sorties. Ce travail évalue l'efficacité des méthodes XAI, en particulier la technique Anchors, à fournir des insights actionnables dans deux domaines de données divers : les données tabulaires pour l'audit de l'équité et les données météorologiques à haute dimensionnalité pour la prévision du temps. Nous adoptons une méthodologie à deux niveaux. Premièrement, nous appliquons Anchors au jeu de données Folktables pour auditer un classificateur binaire de revenu, démontrant sa capacité à identifier des règles précises et à haute précision qui révèlent les vulnérabilités et les biais du modèle, tels qu'une dépendance à des attributs sensibles comme le genre. Cela fournit une compréhension granulaire des mécanismes discriminatoires, une étape cruciale vers une atténuation ciblée des biais. Deuxièmement, nous adaptons et étendons le cadre Anchors pour les tâches de régression afin d'analyser un modèle UNetR++ entraîné sur le jeu de données météorologiques Titan. Notre méthode identifie avec succès les régions spatiales et les variables les plus influentes (par exemple, les régimes de vent, les précipitations) pour des prévisions spécifiques, transformant Anchors en un outil d'analyse d'influence régionale et de cartographie proactive de la vulnérabilité pour les événements météorologiques extrêmes. Nos résultats montrent que la méthode Anchors fournit des insights focalisés, directs et actionnables, indépendamment de la complexité des données. Elle s'avère être un outil polyvalent, non seulement pour diagnostiquer les biais sociétaux dans les algorithmes, mais aussi pour auditer le raisonnement physique de modèles de prévision complexes. Ce travail établit une base pour utiliser l'explicabilité basée sur des exemples comme guide pour une intervention actionable, améliorant la confiance et offrant une voie d'amélioration pour les systèmes techniques et sociétaux.

Type de document:Rapport ou mémoire (PRE - Projet de recherche)
Mots-clés libres:IA Explicable (XAI), Anchors, Interprétabilité des modèles, Équité en apprentissage automatique, Prévision météorologique, Données à haute dimensionnalité, Détection de biais.
Sujets:Sciences et technologies de l'information et de la communication
Sciences de la terre et génie de l'environnement
Code ID :10595
Déposé par :Luana DE QUEIROZ GARCIA
Déposé le :01 sept. 2025 16:50
Dernière modification:01 sept. 2025 16:50

Modifier les métadonnées de ce document.