Guidara, Mr. Houssem (2020) Fairness, discrimination and explicability of data processing PRE - Projet de recherche, ENSTA.

Fichier(s) associé(s) à ce document :

[img]
Prévisualisation
PDF
1160Kb

Résumé

Les algorithmes de machine learning sont aujourd’hui très largement utilisés pour prendre des décisions dans divers contextes, certains d’entre eux pouvant affecter considérablement la vie et la carrière professionnelle des individus, comme l’admission à l’université, le prêt de crédit et la justice pénale. Cette évolution est motivée par l’idée que les algorithmes d’apprentissage automatique sont totalement objectifs et ne sont jamais affectés par les biais cognitifs et les comportements discriminatoires de l’être humain. Cependant, de nombreux documents de recherche affirment que ces systèmes ne sont pas aussi équitables et objectifs que nous le pensons. Par conséquent, il est de la plus haute importance d’évaluer, d’étudier et d’améliorer la mesure dans laquelle les algorithmes d’apprentissage automatique sont équitables et immunisés contre les tendances discriminatoires. Pour ce faire, nous devons définir clairement la notion d’équité dans le contexte du machine learning dans ses aspects mathématique, algorithmique et même philosophique afin qu’elle puisse être mise en œuvre et comprise par les algorithmes de machine learning. Cette étape de définition et d’application de la notion d’équité est cruciale car ces algorithmes sont alimentés par les données recueillies auprès des individus. Et le temps que ces derniers estiment que leurs données personnelles pourraient être utilisées pour justifier l’injustice de décisions qui pourraient avoir un impact important sur leurs vies, ils refuseront tout simplement de partager leurs données, rendant ainsi ces algorithmes d’apprentissage machine totalement inutiles. Néanmoins, il ne suffit pas d’assurer le respect de la valeur de l’équité lors de la mise en œuvre ces systèmes pour que les gens autorisent le partage de leurs données. En d’autres termes, les individus doivent avoir la garantie que leurs données personnelles sont totalement sécurisées et que le processus de collecte et d’utilisation de leurs données personnelles est immunisé contre les attaques malveillantes. Cela s’aligne avec la notion de "differential privacy" qui offre une forte protection de la vie privée de ceux qui choisissent de partager leurs données pour alimenter les algorithmes de machine learning. La "Differential privacy" repose sur l’idée que l’ajout ou la suppression de données concernant une personne bien particulière n’a pratiquement aucun impact sur les résultats globaux. En d’autres termes, les données d’un individu particulier ne perturbent pas suffisamment les résultats d’un algorithme pour pouvoir l’identifier. Cependant, nous devons examiner la mesure dans laquelle l’utilisation des algorithmes qui sont "differentially private" peut avoir un impact sur les mesures d’équité.

Type de document:Rapport ou mémoire (PRE - Projet de recherche)
Mots-clés libres:Machine learning fairness
Sujets:Sciences et technologies de l'information et de la communication
Mathématiques et leurs applications
Code ID :8352
Déposé par :Houcem GUIDARA
Déposé le :22 mars 2021 14:37
Dernière modification:22 mars 2021 14:37

Modifier les métadonnées de ce document.