Nguyen, M Pascal (2020) Étude comparative de différents algorithmes d’apprentissage par renforcement PRE - Projet de recherche, ENSTA.

Fichier(s) associé(s) à ce document :

[img]
Prévisualisation
PDF
1326Kb

Résumé

Dans cette étude bibliographique, nous cherchons à résoudre des problèmes de contrôle optimal à horizon fini avec ou sans contrainte en nous aidant des méthodes d’apprentissage par renforcement pour les problèmes à horizon infini. Les problèmes de contrôle optimal consistent à trouver le contrôle à appliquer au système afin d’optimiser un critère (par exemple, lorsque l’on cherche la trajectoire d’une fusée en minimisant le coût d’essence). Nous avons comparé les performances de trois algorithmes d’apprentissage par renforcement OP(Optimistic Planning), SOP(Simultaneous Optimistic Planning) et SOPMS(Simultaneous Optimistic Planning Multiple Step) appliqués à des problèmes de contrôle optimal à horizon fini par le biais de nombreux tests numériques (résolution d’équation différentielle et d’équation aux dérivées partielles). Nous avons conclu que l’algorithme OP est moins performant (en terme de résultat et de temps CPU) que les algorithmes SOP et SOPMS. mot-clés : contrôle optimal, optimisation planifiée, apprentissage par renforcement, structure d’arbre

Type de document:Rapport ou mémoire (PRE - Projet de recherche)
Sujets:Mathématiques et leurs applications
Code ID :8021
Déposé par :Pascal Nguyen
Déposé le :02 juill. 2021 15:02
Dernière modification:02 juill. 2021 15:02

Modifier les métadonnées de ce document.