GPAI vs Systèmes à Haut Risque : Impacts Concrets sur le Recrutement
La distinction entre modèles GPAI et systèmes à haut risque conditionne les obligations juridiques, les budgets de conformité et la gouvernance des données pour les équipes RH.
TL;DR
- Seuil indicatif GPAI : >10²³ FLOPs ; au-delà de 10²⁵ FLOPs, le modèle est présumé à risque systémique.
- Échéances clés : GPAI le 2 août 2025 ; systèmes à haut risque à partir du 2 août 2026 ; certaines dispositions sont échelonnées selon les cas (calendrier UE).
- Employeurs : double conformité possible (modèle GPAI + usage haut risque) ⇒ auditer vos outils.
- Priorités RH : documentation, gouvernance des données, transparence candidat et surveillance humaine continue.
À retenir
- • GPAI (2 août 2025) : obligations pour les fournisseurs de modèles généralistes (documentation technique, résumé des données d’entraînement, politique de droits d’auteur). Le seuil indicatif pour être classé GPAI est de 1023 FLOPs ; au-delà de 1025 FLOPs le modèle est présumé présenter un risque systémique.
- • Systèmes à haut risque (2 août 2026) : obligations directes pour les employeurs utilisant des outils d’IA dans le recrutement (gestion de la qualité, documentation, transparence et surveillance humaine).
- • Double conformité : un même outil peut être à la fois GPAI et à haut risque, d’où la nécessité d’analyser chaque cas.
Comprendre les Deux Classifications
GPAI - General Purpose AI
Modèles d'IA à usage général
Définition
Modèles IA généralistes pouvant être utilisés dans diverses applications (LLM, modèles de fondation, etc.)
Seuil
Seuil indicatif : >10²³ FLOPs pour être classé GPAI ; au-delà de 10²⁵ FLOPs, le modèle est présumé présenter un risque systémique et fait l’objet d’obligations renforcées.
Responsables
Développeurs des modèles (OpenAI, Google, etc.)
Systèmes à Haut Risque
Applications IA dans des domaines critiques
Définition
Systèmes IA utilisés dans des applications critiques (recrutement, crédit, sécurité, etc.)
Critères
Usage dans les domaines listés à l'Annexe III
Responsables
Utilisateurs finaux (employeurs, recruteurs)
| Critère | GPAI | Haut Risque |
|---|---|---|
| Définition | Modèles IA généralistes (LLM, fondation models) avec usage multiple | Systèmes IA spécialisés utilisés dans des domaines critiques (recrutement, crédit, etc.) |
| Échéance | 2 août 2025 (obligations pour tous les GPAI, seuil indicatif 10^23 FLOPs) | 2 août 2026 (mise en application des obligations haut risque) ; certaines dispositions sont échelonnées selon les cas (réf. calendrier officiel UE). |
| Acteurs concernés | Développeurs de modèles (OpenAI, Anthropic, Google, etc.) | Utilisateurs finaux et fournisseurs d'applications IA |
| Obligations principales | Documentation, évaluation des risques, mesures d'atténuation, incidents | Système de gestion qualité, évaluation conformité, surveillance continue |
| Impact sur les RH | Indirect - dépend des fournisseurs d'outils IA | Direct - obligations pour les employeurs utilisateurs |
Données, adoption et sources clés
- Seuil indicatif : un critère pour qualifier un modèle de GPAI est un compute d’entraînement >1023 FLOP ; au-delà de 1025 FLOP, présomption de “risque systémique” et obligations renforcées — Commission européenne (FAQ GPAI).
- Échéances : interdictions + AI literacy dès le 2 février 2025 ; GPAI le 2 août 2025 ; la plupart des exigences le 2 août 2026 ; certaines obligations et catégories spécifiques sont échelonnées jusqu’en 2027 selon les cas — Commission européenne.
- Adoption IA dans l’UE : en 2024, 13,5 % des entreprises de l’UE (≥10 employés) utilisent des technologies d’IA — Eurostat.
- Sanctions : plafonds jusqu’à 35 M€ / 7 % du CA mondial (selon la gravité), avec seuils inférieurs pour d’autres manquements — Commission européenne.
Exemples Concrets en Recrutement
Systèmes GPAI en RH
GPT-4, Claude
Génération de contenu, analyse de CV
Modèles de recommandation
Suggestion de candidats, matching
Systèmes à Haut Risque en RH
ATS avec scoring automatique
Tri et classement des candidatures
Outils d'entretien vidéo IA
Analyse comportementale, évaluation
Systèmes de matching sémantique
Appariement compétences-postes
Obligations Spécifiques par Catégorie
Obligations GPAI
Pour les développeurs de modèles
- • Documentation technique détaillée et mise à disposition des utilisateurs en aval
- • Publication d'un résumé du contenu d’entraînement et politique de respect des droits d’auteur
- • Notification des modèles dépassant 10²⁵ FLOPs et évaluation des risques systémiques
- • Mise en œuvre de mesures de cybersécurité et de suivi des incidents
- • Tests réguliers pour détecter les biais et protéger les droits fondamentaux
Obligations Haut Risque
Pour les utilisateurs (employeurs)
- • Mise en place d’un système de gestion de la qualité et de gestion des risques
- • Gouvernance des données et documentation technique accessible aux autorités
- • Enregistrement automatique et conservation des événements clés
- • Transparence envers les candidats et possibilité de recours humain
- • Surveillance humaine continue et formation des équipes
- • Garantie de robustesse, d’exactitude et de cybersécurité
Plan d'Action par Classification
En France, l’adoption de l’IA progresse rapidement dans les PME et ETI : les 13,5 % d’entreprises européennes qui utilisent déjà l’IA (Eurostat) incluent de plus en plus de fonctions RH. Les équipes recrutement doivent donc préparer des plans différenciés GPAI / haut risque pour sécuriser leurs investissements et rassurer les candidats.
Actions pour les Systèmes GPAI
1. Inventaire des modèles utilisés
Lister tous les outils basés sur des GPAI (ChatGPT, Claude, etc.)
2. Vérification de la conformité fournisseur
S'assurer que vos fournisseurs respectent leurs obligations GPAI
3. Clauses contractuelles
Inclure des garanties de conformité AI Act dans vos contrats
Actions pour les Systèmes Haut Risque
1. Classification de vos outils IA RH
Identifier quels systèmes entrent dans la catégorie haut risque
2. Mise en place du système qualité
Développer les processus de surveillance et de gouvernance
3. Préparation de l'évaluation de conformité
Documenter, tester et certifier vos systèmes haut risque
FAQ - Questions Fréquentes
Un même outil peut-il être à la fois GPAI et haut risque ?
Oui, certains outils peuvent utiliser des modèles GPAI et être déployés dans des applications haut risque. Les deux réglementations s'appliquent alors simultanément.
Comment savoir si mon ATS est considéré comme haut risque ?
Si votre ATS utilise l'IA pour trier, classer ou évaluer automatiquement les candidats, il entre dans la catégorie des systèmes à haut risque selon l'Annexe III de l'AI Act.
Qui est responsable de la conformité GPAI ?
La responsabilité GPAI incombe principalement aux développeurs des modèles (OpenAI, Google, etc.). Les utilisateurs doivent s'assurer de la conformité de leurs fournisseurs.
Quelles sont les sanctions en cas de non-conformité ?
Les sanctions prévues par l’AI Act peuvent s’élever jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les violations les plus graves, avec des plafonds inférieurs (15 M€ / 3 % ou 7,5 M€ selon l’infraction). Les PME bénéficient d’amendes plafonnées, mais le risque réputationnel demeure.
Évaluez Votre Situation
Besoin d'une évaluation précise de vos obligations selon l'AI Act ? Notre audit expert vous aide à classifier vos systèmes IA.