Retour au numéro
Partager sur :
Vue 48 fois
29 juin 2022

Vers une approche bottom-up de l’éthique de l’IA ! Le foisonnement des métriques pour mesurer les biais sociaux en IA.

Comme en témoignent les nombreux incidents1 induits par l’IA, on sait aujourd’hui que les algorithmes de Machine Learning (ML) peuvent être biaisés. Une discipline scientifique récente, appelée FairML, en a même fait son objet d’étude en produisant des métriques de biais2 et des méthodes pour les mitiger. Le problème est-il enfin résolu?

Malheureusement non, et c’est tout le travail de ma thèse de doctorat de montrer les limites de l’approche solutionniste des méthodes de FairML.


... mais d’abord, qu’est-ce qu’un biais en IA ?

Si la notion de biais est bien connue en statistique, elle est bien plus dure à définir lorsqu’on s’aventure sur le terrain des biais sociaux en IA. D’une manière générale, on peut voir le biais comme une différence d’états entre une situation observée et une situation de référence. Dans le cas des biais sociaux, la situation de référence possède une visée normative, c’est-à-dire qu’elle correspond à une situation telle qu’elle devrait être :...

Cet article est réservé aux abonnés à la revue

Auteur

Jean-Marie John-Mathews

Articles du numéro