Discriminations intersectionnelles : approfondir l’évaluation de l’équité algorithmique. L’exemple de la prédiction de la réussite académique avec des données issues de cours en ligne
PDF

Mots-clés

Equité algorithmique
Intersectionnalité
Prédiction
algorithmic fairness
intersectionality
prediction

Résumé

Evaluer l’équité algorithmique des modèles prédictifs utilisés en éducation est devenu cru-cial pour garantir que, déployés, ils ne soient pas biaisés envers certains apprenants. Jusqu’à présent, les analyses se sont concentrées sur l’évaluation de l’équité algorithmique vis-à-vis d’attributs sen-sibles, comme le genre, présents dans les données, indépendamment les uns des autres. Or, la théorie de l’intersectionnalité de Crenshaw (1989) défend l’idée que les influences conjointes de plusieurs attributs sensibles produisent des discriminations uniques et différentes pour certaines sous-groupes d’individus. Ainsi, nous proposons dans cet article d’étendre les travaux de Verger, Bouchet et al.(2023) avec des analyses supplémentaires sur les discriminations intersectionnelles présentes dans les prédictions des modèles. Ces modèles ont été utilisés dans le cadre de la prédiction de la réussite à des cours en ligne, au moyen de données éducatives ouvertes, plus précisément les données du corpus OULAD (Kuzilek et al., 2017). Nos résultats ont permis de mettre en lumière des discriminations algorithmiques qui n’étaient pas identifiables à partir des analyses classiques ainsi que de déterminer l’influence de chaque attribut sur les discriminations grâce à leurs interactions avec les autres attributs.

Abstract. Assessing the algorithmic fairness of predictive models used in education has become cru-cial to ensure that, when deployed, they are not biased in favor or against certain learners. Until now, analyses have focused on assessing algorithmic fairness with regard to sensitive attributes in the data, such as gender, independently of each other. However, Crenshaw (1989)’s theory of inter-sectionality defends the idea that the influences of several sensitive attributes together produce unique and different discriminations for certain sub-groups of individuals. Thus, in this paper, we propose to extend (Verger, Bouchet et al., 2023)’s work with additional analyses of intersectional discriminations that are in the outcomes of predictive models. These models were used in the context of predicting success in online courses, using open educational data, specifically data from OULAD (Kuzilek et al., 2017). Our results shed light on algorithmic discriminations that were not identifiable from traditio-nal analyses, as well as determining the influence of each attribute on discriminations through their interactions with other attributes.

PDF