Aller au contenu

Égalisation des chances (informatique)

Un article de Wikipédia, l'encyclopédie libre.

En informatique, l'égalisation des chances ou les chances égalisées (en anglais, equalized odds)[1] est une mesure de l'équité de modèles d'apprentissage automatique, proposée en 2016 par les chercheurs Moritz Hardt, Eric Price et Nathan Srebro.

L'égalisation des chances permet de vérifier que les résultats d'un prédicteur pour des personnes sont indépendantes de leur appartenance à un groupe sensible[2]. Ces groupes sensibles incluent généralement tout groupe qui souffre ou pourrait souffrir de discrimination[3], par exemple les femmes, les minorités raciales, les personnes en dessous du seuil de pauvreté, etc. L'égalisation des chances postule ainsi que les prédictions d'une IA ne doivent dépendre que de variables non sensibles, afin d'écarter tout risque de discrimination ou biais.

Gilbert Saporta donne comme exemple qu'« en matière de prêts bancaires, ceux qui feront défaut (resp. ceux qui ne feront pas défaut) devraient avoir la même probabilité de rejet (resp. d’acceptation), quelle que soit [...] leur couleur de peau[1]. » Autrement dit, le pourcentage de personnes d'une couleur de peau donnée à qui on a refusé un prêt alors qu'ils l'auraient remboursé doit être le même que pour les personnes d'autres couleurs de peau (et idem pour les personnes à qui un prêt a été justement accordé).

Définition

[modifier | modifier le code]

Un prédicteur satisfait à l'égalisation des chances si est indépendant d'un attribut sensible , conditionnellement à la variable-cible [4].

Dans le cas où , et sont binaires, l'égalisation des chances se définit comme[4] :

Ce qui revient à écrire que le taux de vrai positifs et le taux de faux positifs pour a et a' doivent être égaux[1].

Amélioration de l'équité

[modifier | modifier le code]

La mesure d'égalisation des chances peut ensuite être utilisée pour améliorer l'équité du modèle prédictif a posteriori, par exemple sous la forme d'un programme linéaire visant à minimiser l'erreur du modèle sous la contrainte de l'égalisation des chances, ou encore en cherchant à minimiser conjointement l'erreur et l'égalisation des chances[5].

Implémentation

[modifier | modifier le code]

Cette mesure est implémentée dans la librairie AI Fairness 360 d'IBM[6].

Égalisation des opportunités

[modifier | modifier le code]

Hart et ses collègues définissent l'égalisation des opportunités comme suit :

Avec l'idée qu'il y a souvent un résultat désirable (par exemple ne pas faire défaut d'un prêt ou obtenir une bourse scolaire), noté dans la définition, et qu'il peut être suffisant de vérifier l'égalité pour ce résultat seulement[4].

-discrimination

[modifier | modifier le code]

Woodworth et collègues observent qu'en pratique, obtenir une égalité parfaite de résultats entre les groupes peut être difficile, et proposent ainsi une notion d'-discrimination où la différence de probabilités conditionnelles entre groupes doit être inférieure à une valeur [7].

Références

[modifier | modifier le code]
  1. a b et c Gilbert Saporta, « Équité, explicabilité, paradoxes et biais », Statistique et Société, vol. 10, no 3,‎ (lire en ligne, consulté le )
  2. (en) Alessandro Castelnovo, Riccardo Crupi, Greta Greco et Daniele Regoli, « A clarification of the nuances in the fairness metrics landscape », Scientific Reports, vol. 12, no 1,‎ , p. 4209 (ISSN 2045-2322, DOI 10.1038/s41598-022-07939-1, lire en ligne, consulté le )
  3. Véronique Tremblay, Équité algorithmique: perspective interdisciplinaire et recommandations pour statisticiens et autres scientifiques de données, (lire en ligne)
  4. a b et c Moritz Hardt, Eric Price et Nathan Srebro, « Equality of opportunity in supervised learning », Proceedings of the 30th International Conference on Neural Information Processing Systems, Curran Associates Inc., nIPS'16,‎ , p. 3323–3331 (ISBN 978-1-5108-3881-9, DOI 10.5555/3157382.3157469, lire en ligne, consulté le )
  5. (en) Zeyu Tang et Kun Zhang, « Attainability and Optimality: The Equalized Odds Fairness Revisited », Proceedings of the First Conference on Causal Learning and Reasoning, PMLR,‎ , p. 754–786 (lire en ligne, consulté le )
  6. « AI Fairness 360 (AIF360) », IBM, (consulté le )
  7. (en) Blake Woodworth, Suriya Gunasekar, Mesrob I. Ohannessian et Nathan Srebro, « Learning Non-Discriminatory Predictors », Proceedings of the 2017 Conference on Learning Theory, PMLR,‎ , p. 1920–1953 (lire en ligne, consulté le )