La technologie et la discrimination : les algorithmes sont-ils biaisés ?
L’intelligence artificielle (IA) et les algorithmes sont de plus en plus intégrés dans notre vie quotidienne, influençant des décisions allant du recrutement aux services financiers, en passant par la reconnaissance faciale et la police predictive. Cependant, une question cruciale se pose : les algorithmes sont-ils biaisés, et si oui, comment ces biais peuvent-ils entraîner des discriminations ?
Les sources des biais algorithmiques
Les biais algorithmiques ne sont pas une fatalité, mais ils sont souvent le résultat de plusieurs facteurs clés.
Biais dans les données d’entraînement
Les algorithmes sont entraînés sur des jeux de données, et ces données peuvent être biaisées. Par exemple, dans le cas d’une IA focalisée sur la reconnaissance de personnes, le principal biais de traitement pourrait être lié à la part d’hommes et de femmes présents dans la base de données, ainsi qu’à la couleur et à la morphologie des individus.
- Biais d’échantillonnage : les données ne représentent pas de manière égale toutes les catégories de la population.
- Biais de représentation : certaines populations sont sous-représentées ou sur-représentées.
- Biais de collecte : les données collectées peuvent être influencées par des préjugés humains.
Pour éviter ces biais, il est essentiel de réfléchir au préalable à la création du jeu de données pour équilibrer chaque catégorie. Etienne Balit, responsable scientifique chez Neovision, souligne l’importance de répartir uniformément le jeu de données et de mettre un “poids” différent dans chaque catégorie pour rééquilibrer les données.
Les types de biais algorithmiques
Les biais algorithmiques peuvent prendre plusieurs formes, chacune ayant des implications différentes.
Biais de confirmation et biais de représentativité
Le biais de confirmation se produit lorsque l’algorithme privilégie des informations qui confirment des hypothèses préexistantes. Le biais de représentativité traite les nouvelles données comme si elles étaient identiques à celles d’un échantillon précédent. Ces biais peuvent mener à des inégalités dans le traitement des individus et à des décisions potentiellement injustes.
Biais cognitifs
Les biais cognitifs peuvent se définir comme une distorsion de la manière dont l’information est traitée par rapport à un traitement rationnel ou à la réalité. Par exemple, les travaux de Michal Kosinski et Yilun Wang sur la détection de l’orientation sexuelle à partir du visage ont été critiqués pour révéler plus leurs propres perceptions que la réalité.
Les implications des biais algorithmiques
Les biais algorithmiques peuvent avoir des implications significatives sur divers aspects de la vie.
Dans le recrutement
Les systèmes de tri de CV automatisés peuvent favoriser certains profils au détriment d’autres, souvent sans raison valable. Cela peut conduire à la discrimination, qui est illégale. Près de 70 % des professionnels des ressources humaines ont déjà constaté que les outils d’embauche automatisés favorisaient certains profils, soulignant la nécessité de surveiller et de corriger ces biais.
Dans les services essentiels
Les biais algorithmiques peuvent affecter l’accès à des services essentiels comme le logement ou les crédits bancaires. Les systèmes d’IA utilisés dans ces domaines doivent être soumis à des exigences strictes en matière de transparence et d’évaluation des risques pour garantir que les décisions prises soient justes et non discriminatoires.
Les solutions pour atténuer les biais algorithmiques
Heureusement, plusieurs solutions existent pour atténuer les biais algorithmiques.
Audit et transparence
L’audit des résultats générés par les systèmes d’IA est crucial pour déceler des schémas injustes. Des logiciels comme Psicosmart intègrent des évaluations psychométriques et techniques dans le processus de recrutement, permettant de détecter et de corriger les biais. La transparence est également essentielle ; les utilisateurs doivent pouvoir comprendre comment le modèle d’IA a abouti à une décision.
Utilisation de données diversifiées
La production de données à l’image de la diversité du monde est une piste sérieuse pour atténuer les biais. Les entreprises doivent s’assurer que leurs bases de données incluent des profils sous-représentés et corrigent les inégalités de genre et d’autres aspects de la vie qui sont moins bien documentés.
Outils de détection des biais
IBM a lancé une solution logicielle capable de détecter les biais des algorithmes, intégrée à IBM Cloud et compatible avec des solutions concurrentes et open source. Cette technologie permet d’expliquer le raisonnement d’une IA en temps réel et préconise les données à ajouter pour atténuer le biais détecté.
Le cadre légal et les droits fondamentaux
Les législations telles que le RGPD en Europe et l’Equal Credit Opportunity Act aux États-Unis exigent un traitement égal des individus, sans considération d’origine ethnique, de langue, de religion ou d’orientation sexuelle.
Classification des IA selon les risques
Les IA sont classées en fonction de leur niveau de risque pour les droits fondamentaux et la sécurité des personnes. Les IA à haut risque, utilisées dans des domaines sensibles comme la santé, la justice et le recrutement, doivent se conformer à des exigences strictes de transparence, d’évaluation des risques et de surveillance continue.
Exemples concrets et anecdotes
L’expérience de Joy Buolamwini
Joy Buolamwini, informaticienne afro-américaine, a découvert que les outils de reconnaissance faciale ne détectaient pas son visage à moins qu’elle ne porte un masque blanc. Cette expérience l’a conduite à explorer les raisons de ce biais et à révéler que les données fournies à l’IA pour l’entraîner étaient majoritairement des photographies d’hommes à la peau claire.
L’application Face2Gene
L’application Face2Gene, conçue pour détecter les maladies génétiques rares chez les enfants, a montré des performances moins fiables pour certaines populations en raison des bases de données employées, qui étaient essentiellement composées de modèles européens et américains.
Conseils pratiques pour éviter les biais algorithmiques
- Diversifiez vos données : Assurez-vous que vos bases de données représentent de manière égale toutes les catégories de la population.
- Effectuez des audits réguliers : Analysez attentivement les décisions prises par l’algorithme pour déceler des schémas injustes.
- Utilisez des outils de détection des biais : Intégrez des solutions logicielles capables de détecter et de corriger les biais en temps réil.
- Assurez la transparence : Permettez aux utilisateurs de comprendre comment le modèle d’IA a abouti à une décision.
Les algorithmes, bien que puissants et utiles, ne sont pas à l’abri des biais. Ces biais peuvent entraîner des discriminations et affecter significativement les droits fondamentaux des individus. En comprenant les sources de ces biais, en utilisant des solutions pour les atténuer, et en respectant les cadres légaux en place, nous pouvons travailler vers une utilisation plus équitable et inclusive de l’intelligence artificielle.
| **Type de Biais** | **Description** | **Exemple** |
|
|----------------------------------------------------------------------------------|
|
| Biais d’échantillonnage | Les données ne représentent pas de manière égale toutes les catégories de la population. | Bases de données avec une majorité de photographies d’hommes à la peau claire. |
| Biais de représentation | Certaines populations sont sous-représentées ou sur-représentées. | Application Face2Gene moins fiable pour certaines populations. |
| Biais de confirmation | L’algorithme privilégie des informations qui confirment des hypothèses préexistantes. | Systèmes de tri de CV favorisant certains profils. |
| Biais de représentativité | Les nouvelles données sont traitées comme si elles étaient identiques à celles d’un échantillon précédent. | Algorithmes mal calibrés sur-représentant des groupes privilégiés. |
En somme, la lutte contre les biais algorithmiques est un enjeu majeur pour garantir que l’intelligence artificielle serve à améliorer notre vie sans perpétuer les discriminations existantes.