Aller au contenu principal
Image réalisée par Luc Legay

IApartheid

Inégalités et discriminations créées ou amplifiées par les systèmes d’intelligence artificielle.
9 mai 2025
2 mins de lecture

Étymologie

IApartheid est la fusion de l’intelligence artificielle (IA) et de l’apartheid (système de ségrégation). On parle d’IApartheid pour les ségrégations sociales basées sur des décisions algorithmiques.

L’IApartheid, c’est…

Un traitement différencié

L’accès aux services essentiels (santé, éducation, emploi, logement…) est conditionné par le score d’interaction avec les IA. Ce score est calculé sur la capacité à communiquer efficacement avec les systèmes algorithmiques. À cause d’accent et de couleur de peau ne facilitant pas la reconnaissance, des personnes ont un score très bas.

Des ghettos numériques

Des quartiers sont devenus des zones d’exclusion algorithmique. Rayé des bases de données, il est impossible pour les habitants de se faire livrer ou de commander une voiture autonome. On constate que ces quartiers sont habités par des populations dont les comportements, accents ou habitudes culturelles sont mal interprétés par les IA.

L’inégalité médicale augmentée

Les systèmes de diagnostic médical par IA, formés principalement sur des données de patients caucasiens et aisés, présentent des taux d’erreur significativement plus élevés pour les autres populations. Les assurances santé utilisent ces algorithmes pour déterminer les tarifs. Ils sont donc plus élevés pour les personnes exclues des systèmes de santé.

De plus en plus de surveillance

Les algorithmes de prédiction criminelle concentrent la surveillance dans des zones spécifiques. Cette surveillance mène à plus d’arrestations, qui justifient plus de surveillance.

Une démocratie biaisée

Les systèmes de participation citoyenne et de vote électronique sont optimisés pour certains profils d’utilisateurs. Les opinions et besoins des populations marginalisées par l’IA sont systématiquement sous-représentés dans les processus décisionnels.

Une résistance

Face à l’IApartheid, des quartiers se déconnectent pour créer des zones d’autonomie humaine où les décisions sont prises sans intermédiaire algorithmique.

C’est déjà demain

Aux ÉtatsUnis, l’outil COMPAS utilisé par les juges attribue aux AfroAméricains un risque de récidive deux fois plus élevé qu’aux personnes blanches, sans jamais demander explicitement l’origine ethnique.

Des algorithmes de scoring du crédit attribuent des notes plus basses aux résidents de quartiers majoritairement afro-américains ou latinos, indépendamment de leur solvabilité réelle.

Selon les recherches de Joy Buolamwini (MIT), les systèmes de reconnaissance faciale présentent des taux d’erreur de 34,7 % pour les femmes à la peau foncée, contre seulement 0,8 % pour les hommes à la peau claire.

Les technologies comme Siri ou Alexa comprennent moins efficacement les accents afro-américains ou hispaniques.

Les IA génératives produisent dans 80 % des cas des individus à la peau sombre lorsqu’on leur demande de générer l’image d’un détenu ou d’un terroriste.

Aux Pays-Bas, entre 2012 et 2019, un algorithme de détection de fraude aux prestations sociales a identifié 25 000 personnes. 90 % étaient innocentes. La majorité était issue de l’immigration.

Laisser un commentaire

Your email address will not be published.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Même catégorie

Dernières parutions

Génuinomètre

Étymologie Du latin genuinus : authentique Appareil ou application qui mesure et quantifie le taux d’artificialité d’un être humain en analysant la présence et l’influence…

Robustance

Mot dérivé : Robustant adj Un système performant est défini par l’alliance de l’efficacité (atteindre l’objectif) et de l’efficience (avec le minimum de moyens). Il…