Étymologie
IApartheid est la fusion de l’intelligence artificielle (IA) et de l’apartheid (système de ségrégation). On parle d’IApartheid pour les ségrégations sociales basées sur des décisions algorithmiques.
L’IApartheid, c’est…
Un traitement différencié
L’accès aux services essentiels (santé, éducation, emploi, logement…) est conditionné par le score d’interaction avec les IA. Ce score est calculé sur la capacité à communiquer efficacement avec les systèmes algorithmiques. À cause d’accent et de couleur de peau ne facilitant pas la reconnaissance, des personnes ont un score très bas.
Des ghettos numériques
Des quartiers sont devenus des zones d’exclusion algorithmique. Rayé des bases de données, il est impossible pour les habitants de se faire livrer ou de commander une voiture autonome. On constate que ces quartiers sont habités par des populations dont les comportements, accents ou habitudes culturelles sont mal interprétés par les IA.
L’inégalité médicale augmentée
Les systèmes de diagnostic médical par IA, formés principalement sur des données de patients caucasiens et aisés, présentent des taux d’erreur significativement plus élevés pour les autres populations. Les assurances santé utilisent ces algorithmes pour déterminer les tarifs. Ils sont donc plus élevés pour les personnes exclues des systèmes de santé.
De plus en plus de surveillance
Les algorithmes de prédiction criminelle concentrent la surveillance dans des zones spécifiques. Cette surveillance mène à plus d’arrestations, qui justifient plus de surveillance.
Une démocratie biaisée
Les systèmes de participation citoyenne et de vote électronique sont optimisés pour certains profils d’utilisateurs. Les opinions et besoins des populations marginalisées par l’IA sont systématiquement sous-représentés dans les processus décisionnels.
Une résistance
Face à l’IApartheid, des quartiers se déconnectent pour créer des zones d’autonomie humaine où les décisions sont prises sans intermédiaire algorithmique.
C’est déjà demain
Aux ÉtatsUnis, l’outil COMPAS utilisé par les juges attribue aux AfroAméricains un risque de récidive deux fois plus élevé qu’aux personnes blanches, sans jamais demander explicitement l’origine ethnique.
Des algorithmes de scoring du crédit attribuent des notes plus basses aux résidents de quartiers majoritairement afro-américains ou latinos, indépendamment de leur solvabilité réelle.
Selon les recherches de Joy Buolamwini (MIT), les systèmes de reconnaissance faciale présentent des taux d’erreur de 34,7 % pour les femmes à la peau foncée, contre seulement 0,8 % pour les hommes à la peau claire.
Les technologies comme Siri ou Alexa comprennent moins efficacement les accents afro-américains ou hispaniques.
Les IA génératives produisent dans 80 % des cas des individus à la peau sombre lorsqu’on leur demande de générer l’image d’un détenu ou d’un terroriste.
Aux Pays-Bas, entre 2012 et 2019, un algorithme de détection de fraude aux prestations sociales a identifié 25 000 personnes. 90 % étaient innocentes. La majorité était issue de l’immigration.
