Éthique
    Biais IA
    Réglementation

    Éviter les biais dans le recrutement par IA : données, réglementations et bonnes pratiques

    En 2025, l'IA s'impose dans le recrutement mais la confiance reste faible. Voici les biais avérés, les obligations légales et les actions concrètes pour limiter les risques.

    Publié le 20 janvier 2025Lecture : 12 minNiveau : Expert

    TL;DR

    • Adoption accrue, confiance faible : 72 % des professionnels RH utilisent l'IA en 2025 (58 % en 2024), mais seulement 26 % des candidats pensent qu'elle évaluera équitablement.
    • Biais avérés : Amazon a abandonné son outil de tri de CV biaisé ; les solutions d'analyse vidéo ont été accusées de mal reconnaître les accents et de pénaliser certains profils.
    • Cadre juridique strict : les systèmes d'IA pour recruter sont classés « à haut risque » par l'AI Act (audit, supervision humaine, documentation avant août 2026). La loi locale 144/2021 à New York impose un audit impartial publié et la notification des candidats.

    Pourquoi les algorithmes peuvent discriminer

    Biais de données

    Élevé

    L'effet miroir des historiques de recrutement peut reproduire des discriminations passées (ex. données majoritairement masculines).

    Biais de traitement

    Très élevé

    Modèles entraînés sur des voix ou visages peu représentatifs : performance inégale selon les accents, la langue et certaines caractéristiques individuelles, avec un risque de pénaliser des profils pourtant qualifiés.

    Biais d'utilisateur

    Modéré

    Même quand un algorithme est imparfait, ses recommandations peuvent influencer la décision finale. La sensibilisation et des procédures de revue réduisent ce risque.

    La règle des quatre-cinquièmes (80 %) recommandée par l'EEOC sert de seuil : si le taux de sélection d'un groupe est inférieur à 80 % du groupe le plus favorisé, un examen approfondi s'impose.

    Cas concrets : quand l'IA discrimine

    Amazon abandonne son IA de recrutement

    L'outil, entraîné sur dix ans de recrutements masculins, a déclassé les CV mentionnant des termes associés au genre féminin. Amazon l'a retiré en 2018.

    HireVue et les biais liés à l'accent

    Des enquêtes ont montré que les systèmes de vidéo-analyse pénalisaient certains accents ou des personnes handicapées. HireVue affirme avoir cessé la reconnaissance faciale depuis 2021, mais des plaintes ont été déposées aux États-Unis.

    Expérimentation universitaire

    Des travaux académiques montrent que les recommandations d’un algorithme peuvent fortement orienter le jugement humain. Une formation et des règles de revue (contre-expertise, justification, audits) permettent de limiter cet effet.

    Données & benchmarks 2024‑2025

    Taux d'adoption de l'IA RH

    HireVue 2025 Global Guide

    58 % en 2024 → 72 % en 2025

    Confiance des RH

    HireVue

    37 % → 51 % de confiance dans les recommandations IA

    Confiance des candidats

    Gartner 2025

    26 % estiment que l'IA évaluera équitablement

    Cadre réglementaire

    AI Act (UE) : les systèmes d'IA utilisés pour sélectionner ou évaluer des candidats sont classés « à haut risque ». Obligations : gouvernance des données d'entraînement, documentation, gestion des risques, transparence, supervision humaine et conformité avant le 2 août 2026. Les sanctions peuvent atteindre 35 M€ ou 7 % du chiffre d'affaires mondial.

    Loi locale 144/2021 (New York) : audit impartial des biais, publication des taux de sélection par sexe et groupe ethnique, notification préalable des candidats avant toute utilisation d'un outil automatisé.

    Guidelines EEOC (États-Unis) : application de la règle des quatre-cinquièmes pour détecter un impact défavorable et documenter les décisions automatisées.

    Solutions pour réduire les biais

    Collecter et nettoyer des données représentatives

    Datasets diversifiés couvrant genres, âges et origines, avec indicateurs d’audit (séparés du scoring), utilisés uniquement pour mesurer l’équité et documenter les écarts, pas pour décider.

    Audit algorithmique régulier

    Calculer les taux de sélection par groupe et appliquer la règle des quatre‑cinquièmes. Publier un rapport d'audit (exigé à New York) et le mettre à jour après chaque changement majeur.

    Supervision humaine obligatoire

    Conserver un examen humain final, possibilité de contester un score et transparence sur les critères. L'AI Act impose cette supervision pour les systèmes à haut risque.

    Sensibilisation et documentation

    Former les équipes aux biais implicites, expliquer les limites des modèles et tenir un registre des traitements conforme au RGPD et aux obligations de l'AI Act.

    Droits des candidats et recours

    Notifier les candidats avant toute analyse automatisée, proposer une intervention humaine et conserver les traces des décisions pour permettre un contrôle.

    Checklist actionnable pour PME/ETI

    Évaluer le risque : identifier les usages IA en recrutement et vérifier s'ils sont classés « haut risque ».
    Analyser les données : vérifier la représentativité et la conformité RGPD des ensembles d'entraînement.
    Mesurer l'équité : appliquer la règle des quatre-cinquièmes et suivre les taux de sélection par groupe.
    Réaliser un audit externe : faire auditer le modèle par un tiers et publier un rapport synthétique.
    Implémenter une supervision humaine : ne pas déléguer la décision finale à l'IA ; permettre la contestation des résultats.
    Former et documenter : former les équipes aux biais, tenir un registre des traitements et des audits.

    Mini-FAQ (2025)

    Qu'est-ce qu'un audit de biais ?

    Une évaluation indépendante qui mesure l'écart de traitement entre groupes (sexe, origine) via des métriques comme la règle des 80 %. À New York, il est obligatoire avant toute utilisation d'un outil de recrutement automatisé.

    Les PME sont-elles concernées par l'AI Act ?

    Oui. Toute organisation qui commercialise ou utilise un système d'IA à haut risque dans l'UE doit respecter les obligations (données d'entraînement, documentation, supervision humaine), quelle que soit sa taille.

    L'IA élimine-t-elle totalement les biais ?

    Non. L’IA peut réduire certains biais dans des conditions contrôlées, mais elle peut aussi en créer ou en amplifier selon les données, le paramétrage et l’usage. Une supervision humaine et des audits réguliers restent indispensables.

    Les candidats peuvent-ils refuser l'analyse automatisée ?

    Le RGPD encadre les décisions uniquement automatisées et prévoit des garanties (information, possibilité d’intervention humaine, contestation), selon le cas. La loi 144/2021 de New York impose en plus une notification préalable.

    Quelles sanctions en cas de non-conformité ?

    Pour les systèmes à haut risque, l'AI Act prévoit jusqu'à 35 M€ ou 7 % du chiffre d'affaires mondial en cas de violation des obligations.

    Conclusion et prochaine étape

    Le recrutement par l'IA est une opportunité d'efficacité, mais les biais restent un risque juridique et réputationnel. Les obligations de l'AI Act, de la loi 144/2021 et des guidelines EEOC rendent audits, supervision humaine et documentation incontournables.

    RHIA Copilot intègre des garde-fous d'audit et de transparence pour aider les équipes RH à respecter ces exigences. L'outil accompagne les décideurs, sans promettre une équité parfaite : les audits réguliers et la supervision humaine restent essentiels.

    Sources

    • HireVue – 2025 Global Guide to AI in Hiring (adoption, confiance RH) source
    • Gartner – Survey: only 26% of candidates trust AI to evaluate them fairly source
    • Reuters – Amazon scraps AI recruiting tool that showed bias against women source
    • EU AI Act (EUR-Lex) – high-risk systems in employment source
    • NYC Local Law 144/2021 (AEDT) – audit & notice source

    Prêt à auditer vos algorithmes de recrutement ?

    Demandez une démonstration de RHIA Copilot pour voir comment superviser vos modèles, documenter vos audits et notifier vos candidats en conformité.