Classification AI Act

    GPAI vs Systèmes à Haut Risque : Impacts Concrets sur le Recrutement

    11 décembre 202415 min de lectureDRH, Compliance, DPO

    Décryptage complet des classifications AI Act : GPAI vs systèmes haut risque, obligations spécifiques et impacts pratiques sur vos processus RH.

    À retenir

    • GPAI (2025) : obligations pour les développeurs de modèles IA généralistes
    • Haut risque (2026) : obligations directes pour les employeurs utilisant l'IA en recrutement
    • Double conformité : certains outils peuvent être concernés par les deux classifications

    Comprendre les Deux Classifications

    GPAI - General Purpose AI

    Modèles d'IA à usage général

    Définition

    Modèles IA généralistes pouvant être utilisés dans diverses applications (LLM, modèles de fondation, etc.)

    Seuil

    >10²⁵ FLOPS (calculs de formation)

    Responsables

    Développeurs des modèles (OpenAI, Google, etc.)

    Systèmes à Haut Risque

    Applications IA dans des domaines critiques

    Définition

    Systèmes IA utilisés dans des applications critiques (recrutement, crédit, sécurité, etc.)

    Critères

    Usage dans les domaines listés à l'Annexe III

    Responsables

    Utilisateurs finaux (employeurs, recruteurs)

    CritèreGPAIHaut Risque
    DéfinitionModèles IA généralistes (LLM, fondation models) avec usage multipleSystèmes IA spécialisés utilisés dans des domaines critiques (recrutement, crédit, etc.)
    Échéance2 août 2025 (GPAI > 10^25 FLOPS)2 août 2026
    Acteurs concernésDéveloppeurs de modèles (OpenAI, Anthropic, Google, etc.)Utilisateurs finaux et fournisseurs d'applications IA
    Obligations principalesDocumentation, évaluation des risques, mesures d'atténuation, incidentsSystème de gestion qualité, évaluation conformité, surveillance continue
    Impact sur les RHIndirect - dépend des fournisseurs d'outils IADirect - obligations pour les employeurs utilisateurs

    Exemples Concrets en Recrutement

    Systèmes GPAI en RH

    GPT-4, Claude

    Génération de contenu, analyse de CV

    Niveau de risque :
    Modéré
    Responsabilité du développeur (OpenAI, Anthropic)

    Modèles de recommandation

    Suggestion de candidats, matching

    Niveau de risque :
    Faible à modéré
    Surveillance de l'usage par l'employeur

    Systèmes à Haut Risque en RH

    ATS avec scoring automatique

    Tri et classement des candidatures

    Niveau de risque :
    Élevé
    Obligations : Certification, surveillance continue, transparence

    Outils d'entretien vidéo IA

    Analyse comportementale, évaluation

    Niveau de risque :
    Très élevé
    Obligations : Évaluation conformité, surveillance humaine

    Systèmes de matching sémantique

    Appariement compétences-postes

    Niveau de risque :
    Élevé
    Obligations : Documentation technique, audit des biais

    Obligations Spécifiques par Catégorie

    Obligations GPAI

    Pour les développeurs de modèles

    • • Documentation technique du modèle
    • • Évaluation et atténuation des risques systémiques
    • • Tracking et reporting d'incidents graves
    • • Évaluation de la cybersécurité
    • • Tests adversariaux
    • • Mesures de protection des droits fondamentaux

    Obligations Haut Risque

    Pour les utilisateurs (employeurs)

    • • Système de gestion de la qualité
    • • Documentation technique et conformité
    • • Enregistrement automatique des événements
    • • Transparence et information des utilisateurs
    • • Surveillance humaine appropriée
    • • Robustesse, exactitude et cybersécurité

    Plan d'Action par Classification

    Actions pour les Systèmes GPAI

    1. Inventaire des modèles utilisés

    Lister tous les outils basés sur des GPAI (ChatGPT, Claude, etc.)

    2. Vérification de la conformité fournisseur

    S'assurer que vos fournisseurs respectent leurs obligations GPAI

    3. Clauses contractuelles

    Inclure des garanties de conformité AI Act dans vos contrats

    Actions pour les Systèmes Haut Risque

    1. Classification de vos outils IA RH

    Identifier quels systèmes entrent dans la catégorie haut risque

    2. Mise en place du système qualité

    Développer les processus de surveillance et de gouvernance

    3. Préparation de l'évaluation de conformité

    Documenter, tester et certifier vos systèmes haut risque

    FAQ - Questions Fréquentes

    Un même outil peut-il être à la fois GPAI et haut risque ?

    Oui, certains outils peuvent utiliser des modèles GPAI et être déployés dans des applications haut risque. Les deux réglementations s'appliquent alors simultanément.

    Comment savoir si mon ATS est considéré comme haut risque ?

    Si votre ATS utilise l'IA pour trier, classer ou évaluer automatiquement les candidats, il entre dans la catégorie des systèmes à haut risque selon l'Annexe III de l'AI Act.

    Qui est responsable de la conformité GPAI ?

    La responsabilité GPAI incombe principalement aux développeurs des modèles (OpenAI, Google, etc.). Les utilisateurs doivent s'assurer de la conformité de leurs fournisseurs.

    Quelles sont les sanctions en cas de non-conformité ?

    Les sanctions peuvent atteindre 35M€ ou 7% du chiffre d'affaires annuel mondial pour les violations les plus graves, avec des amendes échelonnées selon le type d'infraction.

    Évaluez Votre Situation

    Besoin d'une évaluation précise de vos obligations selon l'AI Act ? Notre audit expert vous aide à classifier vos systèmes IA.