Reproduire, est-ce vraiment créer ? Le cas du Machine Learning
« Les modèles mathématiques sont utilisés comme des armes » déplore Cathy O’Neil.
Intimidés par le langage mathématique, les populations ne se sentent pas habilitées à contredire le résultat énoncé par une autorité scientifique. C’est en s’appuyant sur cette peur et surtout sur cet illettrisme mathématique que « l’utilisation de modèles injustes reste possible et impunie » selon la mathématicienne.
Le Teachers Value-added modeling en est l’exemple parfait. Supposé permettre l’amélioration du système éducatif américain en identifiant les professeurs incompétents, ce modèle se révèle en réalité inefficace et stigmatisant. Après avoir étudié les résultats scolaires d’un élève, les chercheurs prédisent ses notes aux prochains examens, partant du principe qu’un élève obtient une moyenne relativement similaire d’année en année. La note obtenue par l’élève est ensuite comparée à la prédiction. La différence de point entre les deux est alors attribuée à l’enseignant. En cas de résultat négatif, la capacité et la qualité d’enseignement du professeur sont remises en cause sans prendre en compte la courbe de progression ou de régression possible de l’élève ou des facteurs extérieurs à l’école comme la vie de famille ou la condition physique et mentale.
Un algorithme douteux basé sur des anticipations hasardeuses qui entraîna l’humiliation - les résultats ayant été publiés en 2012 dans le New York Times- et le renvoi de nombreux enseignants jugés mauvais par des proviseurs soucieux de redorer l’image de leur établissement. Un modèle à la formulation opaque et au processus inexpliqué - personne n’étant autorisé à étudier le code à l’origine de l’algorithme - qui n’est malheureusement pas un cas unique et favorise également les comportements discriminatoires et excluants.
Le Big Data devient petit à petit l’élément déclencheur d’un cercle vicieux des inégalités. En raison d’une base de données incomplète et influencée par des problématiques subjectives comme le racisme, nombre des algorithmes utilisés, notamment dans les institutions publiques américaines, établissent des résultats biaisés et stéréotypés à l’image de l’indice de récidivisme. Intégrant des paramètres comme la durée de la première peine purgée, l’âge ou les origines sociales, l’algorithme définit la probabilité qu’a un détenu de récidiver aux États-Unis. Si celle-ci est jugée trop élevée, la peine du détenu est rallongée. Un système de punition à l’avance qui repose non pas sur des chiffres objectifs mais sur des prédictions dérivées de statistiques artificiels et faussés.
Aux États-Unis, même en cas de profil similaire, « les noirs sont considérés comme plus à risques que les blancs » affirme Cathy O’Neil. La mathématicienne s’inquiète de cette dangereuse dérive identitaire qui transforme la race en donnée et affirme que « les armes de destruction mathématiques augmentent les inégalités et menacent la démocratie. »
Optimiste, Cathy O’Neil affirme néanmoins que nous avons toutes les cartes en main pour inverser la tendance : « la technologie ne changera pas le monde, c’est à nous de le faire ».
A lire :